Что такое фильтры?

Фильтрами называют такие алгоритмы поисковой системы, которые применяют санкции к интернет-ресурсам, использующим искусственные методы для повышения своего рейтинга в поисковой выдаче.

К задачам фильтров относят отсев таких сайтов с последующим их исключением из выдачи.

Поскольку любая поисковая система стремится предоставить пользователям сайты с качественным наполнением, ее роботы в процессе индексации ресурсов проверяют их на предмет использования черных методов оптимизации.

О факте наложения фильтра поисковик не сообщает. Узнать об этом можно по таким характерным признакам:

  • Страницы ресурса не индексируются поисковиком.
  • Сайт не поднимается в выдаче.
  • Сайт не отображается в поисковой выдаче по ключевым запросам.
  • Наблюдается снижение трафика.

Факторы, повышающие риск применения фильтров

К факторам риска, влияющим на попадание сайта под фильтр, относят:

  • Неуникальный контент.
  • Чрезмерное использование ключей.
  • Стремительное изменение ссылочной массы.
  • Приобретение ссылок с низкокачественных сайтов.
  • Чрезмерно активная продажа ссылок со страниц данного ресурса.

Фильтры поисковой системы Yandex

АГС (АГС-17 и АГС-30) – этот тип фильтров предназначен для борьбы с сателлитами и теми ресурсами, которые специально созданы для продажи ссылок. Такие многостраничные интернет-сайты обычно состоят из некоторого количества страниц с полезным контентом, и они попадают в выдачу, а другие страницы, не содержащие значимой информации, из индекса исключаются.

Непот-фильтр — он накладывается на сресурсы, активно продающие ссылки, а также за ссылочный спам. Когда сайт попадает под этот фильтр, исходящие ссылки больше не передают свой вес, поэтому их продажа становится бессмысленной. Перечень ресурсов, попавших под этот фильтр, называется непот-лист.

Ты последний – этот фильтр применяется к ресурсам, на которых есть страницы с дублированным (неуникальным) содержимым. В результате такие сайты не попадают в поисковую выдачу по ключевым запросам.

Редирект фильтр – применяется к сайтам, использующим дорвеи. Такие ресурсы оказываются в бане.

Фильтры аффилиатов – используется применительно к сайту и его аффилиатам, чтобы в выдаче остался только один из них, максимально релевантный ключевому запросу.

Ты спамный – этот фильтр сражается с теми страницами, на которых наблюдается избыточная плотность ключевых слов. Подобные страницы из индекса исключаются.

Фильтры поисковой системы Google

Поисковая система Google использует большое количество фильтров, однако многие из фильтров Гугла не рассчитаны на русскоязычный сегмент сети.

Sandbox или пресловутая «песочница» используется для молодых сайтов, возраст которых не превышает полугода. Гугл не пропускает их в выдачу по высокочастотным запросам, при этом по низкочастотникам они попадают в результаты выдачи. Обычно новый сайт находится в «песочнице» от трех месяцев и более. Этот период зависит от качества контента и числа внешних ссылок.

Bombing (склеивание) – используется применительно к тем ресурсам, ссылки которых имеют идентичный анкор. Эти ресурсы из выдачи исключаются.

Links — применяется к тем ресурсам, на которых есть страница обмена ссылок с другими сайтами.

Минус 30 — этот фильтр применяется для ресурсов, использующих клоакинг или дорвеи, известные также как редиректы. При этом ресурс, попавший под данный фильтр, понижается на 30 позиций в поисковой выдаче.

Дублирующийся контент – этот фильтр используется для борьбы с копированием контента.

Социтирование – такой фильтр используется относительно тех ресурсов, на которые ссылаются доноры, содержащие не подходящий по тематике или неправомерный контент. Вес подобных ссылок не принимается во внимание.

Много ссылок сразу – этот фильтр применяется в случае резкого роста ссылочной массы, что Google понимает как покупку ссылок. Ресурс при этом отправляется в бан или теряет позиции.

Время загрузки – если страница грузится слишком долго, то она не будет отображаться в результатах выдачи.

Чрезмерная оптимизация – такой фильтр используется для тех страниц, которые перенасыщены ключевиками. Сайт при этом может потерять свои позиции.

Битые ссылки — поисковик не в состоянии проиндексировать ссылки, ведущие на несуществующие страницы. Это плохо влияет на поисковую выдачу и другие показатели сайта.

Опущенные результаты — сайт оказывается под таким фильтром за использование неуникального контента, или недостаточное количество входящих ссылок, а также за отсутствие внутренней перелинковки и дублирующие заголовки.

Дополнительные результаты – под такой фильтр попадают страницы, содержимое которых поисковик не считает значимым для пользователя. Эти страницы будут ранжироваться ниже, чем более значимые по мнению поискового робота страницы. Значимости добавляют, используя входящие ссылки.

Поделитесь с друзьями

Комментарий (1)

  • Oleg Reply

    Интересно будет почитать о фильтрах других поисковиков, таких как binq или yahoo. В этих, что наведены выше, мне кажется, очень большая конкуренция и нужно больше усилий и времени, что бы привлечь хотя-бы 1 посетителя.

    20.06.2016 at 14:16

Добавить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *