Что такое поисковый алгоритм?

Поисковый алгоритм представляет собой комплексную математическую модель, с помощью которой поисковик создает поисковую выдачу, отбирая наиболее релевантные пользовательскому запросу сайты. Работает по классическому принципу «черного ящика» с определенными параметрами, куда на входе поступает вопрос, а на выходе выдается его решение.

Параметры поисковых алгоритмов, по которым оценивают релевантность

Поисковые алгоритмы, как правило, содержатся в строжайшем секрете. Так что перечислить абсолютно все параметры, которые применяют поисковики, оценивая релевантность содержимого веб-ресурсов для включения их в поисковую выдачу, практически невозможно. А вот основные из них вполне можно назвать.

К таким параметрам относят:

  • Возраст сайта.
  • Его имя и уровень домена, а также доменная зона.
  • Популярность тем, которые освещает данный ресурс, соответствие тематики ключевикам.
  • Объем информации, размещенной на сайте, и на каждой странице в отдельности, количество страниц.
  • Авторитетность сайта и всех его страниц по мнению поисковиков.
  • Единство стиля на всех страницах ресурса.
  • Количество ключевиков и их постраничное распределение в текстовом содержимом сайта. Соотношение ключевых слов и общего количества слов в используемом контенте.
  • ТИЦ.
  • Количество поисковых запросов, созданных пользователями за конкретный отрезок времени, по каждому из ключевых слов, входящих в семантическое ядро.
  • Периодичность обновлений.
  • Наличие графического и мультимедийного контента.
  • Шрифты и форматирование, стиль заголовков и выделение ключей.
  • Расстояние от начала статьи до ключевиков.
  • Использование спорных методов уникализации, например, намеренно сделанные грамматические ошибки, написание ключевых слов вразрядку.
  • Метатеги.
  • Наличие документа robots.txt.
  • Глубина сайта — количество возможных переходов внутри сайта без повторных посещений одних и тех же страниц.
  • Использование в программном коде комментариев.
  • География сайта и используемый язык.
  • Внешняя и внутренняя ссылочная масса. Качество имеющихся ссылок.
  • Прочие параметры.

Принцип действия поискового алгоритма

Существуют алгоритмы прямого и обратного действия.

Поисковые алгоритмы прямого действия

Такие алгоритмы при получении пользовательского запроса проводят оценку всех веб-ресурсов, которые присутствуют в индексе поисковика. Выдача получается наиболее релевантной, но алгоритм проделывает при этом огромное количество малоэффективной работы, увеличивая тем самым время ожидания. По этой причине крупные поисковики не пользуются алгоритмами прямого действия.

Алгоритмы инвертированного или обратного действия

Чтобы сделать поиск более оперативным, базы данных поисковиков хранят информацию, предварительно преобразовав ее в текстовые документы, где указывается перечень слов, а рядом – их координаты в исходнике и некоторые другие характеристики.

База, в которой хранятся эти файлы, называется обратным индексом, здесь и выполняется поиск соответствующим алгоритмом. Релевантность получается чуть ниже, чем при использовании алгоритмов прямого действия, однако скорость выдачи результатов намного выше.

Апдейты поисковых алгоритмов

Все поисковые машины с определенной регулярностью выполняют апдейт или обновление используемых поисковых алгоритмов и других составляющих системы.

Обновление предполагает добавление в алгоритм новых критериев ранжирования и упразднение неэффективных параметров, а также внесение изменений в формулы, если это необходимо.

Апдейт всегда приводит к изменениям в ранжировании, следовательно, позиции площадок в выдаче меняются.

Поисковые системы следят за правильностью функционирования алгоритмов после проведения обновлений, используя для этого асессоров, в роли которых выступают пользователи, приглашенные для оценки релевантности обновленной выдачи с точки зрения человека. После такой оценки выполняется корректировка.

Поисковые алгоритмы Яндекса и Гугла

Гугл и Яндекс являются лидерами в русскоязычном интернете, поэтому названия их алгоритмов известны пользователям нашей страны.

Гугл использует поисковый алгоритм Panda, периодически выпуская новые его версии.

Яндекс, создавая алгоритмы, присваивает им названия городов: Находка, Арзамас, Обнинск, Краснодар и другие.

Поделитесь с друзьями

Комментарий (1)

  • Алексей Reply

    Вообще считаю правильным, что Гугл и Яндекс не раскрывают всех подробностей работы своих алгоритмов, чтобы была здоровая конкуренция между сайтами. Но, конечно, узнать, как работают алгоритмы хочется.

    26.06.2016 at 12:49

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *