Фильтры поисковых систем

Поисковые системы могут накладывать фильтры как на сайт в целом, так и на отдельные страницы. В результате наложения фильтра падают позиции либо на всем сайте, либо только на проблемных страницах.

Все фильтры можно условно разделить на следующие группы.

1. Фильтры за плохую структуру сайта.

Поисковая система не может адекватно рассчитать релевантность документов сайта из-за плохой структуры и пессимизирует весь сайт.

2. Фильтры за непонятный или дублированный контент.

Если на сайте значительная часть контента представлена в форматах, не распознаваемых поисковыми системами (флэш, скрипты, изображения), то такие страницы понижаются в поисковой выдаче или исключаются из поиска.

Тоже самое происходит со страницами со скопированным контентом.

3. Фильтры за спам и другие попытки манипулирования поисковой выдачей.

Фильтры за переоптимизацию накладываются за грубые нарушения оптимизаторами правил поисковых систем.

Переспамленные тексты, заголовки, УРЛы, ссылочный спам — всё это способствует наложению фильтров поисковых систем, как автоматических, так и ручных.

Причем Google с помощью инструментов для вебмастеров даже информирует о наличии ручного фильтра за покупные ссылки, рассылая такие уведомления:

Сообщение о ручном фильтре Google

Алгоритмы поисковых систем со временем совершенствуются. Бывает так, что за действия, которые раньше приводили к росту позиций, сайт в какой-то момент ловит фильтр.

Если сайт продвигался SEO-компаниями в течение длительного времени, то как правило за ним тянется шлейф проблем, связанных с переоптимизацией. Некоторые из них может выявить только опытный сеошник.

При устранении причин наложения санкций, фильтры обычно снимаются. В случаях особо злостных нарушений, фильтры могут накладываться на длительное время: полгода, год.

4. Фильтры за вредоносный или "взрослый" контент.

Вредоносный контент — это обычно вирус на сайте. При наложении фильтра "контент для взрослых" сайт нормально ранжируется по специфическим "взрослым" запросам, а по всем остальным запросам уходит в аут.

5. Коммерческие фильтры.

Это аффилиат-фильтр. Накладывается за попытку одной организации занять максимум позиций в ТОП-10 по коммерческому запросу, наплодив несколько похожих сайтов.

Фильтр работает так. Сначала из выдачи по пересекающимся запросам удаляются вспомогательные сайты, остается только один — основной. Если начать упорствовать и создавать новые дополнительные сайты, то в аут надолго уходят все сайты организации, включая основной.

Сайты-аффилиаты определяются по одинаковым контактным данным, по данным регистрации доменов, по расположению на одном хостинге, в одном аккаунте счетчиков статистики или в одной вебмастерке, по схожей структуре верстки и еще по массе других признаков.

Чтобы избежать наложения фильтров нужно делать сайт в первую очередь для людей. Оптимизация под поисковые системы должны быть корректной, без спама и накруток.

Вреда от черных методов seo сейчас намного больше, чем пользы, тем более что действие фильтров может усугубляться отрицательными поведенческими факторами.