Фильтры Google и их лечение

 Фильтры Google и их лечение.

Первый фильтр, под который попадает каждый молодой сайт, называется Domain Name Age. Накладывается на домены, которые имеют малый возраст (приблизительно до 3 месяцев). Функция фильтра заключается в том, чтобы не допускать молодой домен к выдаче из-за отсутствия к нему доверия со стороны Google. Этот фильтр имеет родство с фильтром «песочница», только в отличие от первого, «песочница» может применятся и к старым доменам, которые не обновляются, не имеют посещаемости и не обрастают индексируемыми ссылками. Выводом из под этих фильтров заключается в наращивании траста (входящих ссылок с трастовых сайтов), временем, регулярным обновлением. Так же для создания сайта рекомендуется покупать старые домены с хорошей историей.

Google Supplemental index или «сопли» Google. Фильтр, который переносит страницы сайта в дополнительный индекс поисковика. Подробнее в статье «Дополнительный индекс (сопли) Google»

Google Florida. Фильтр, который накладывается за переоптимизацию контента.  Признаки: падение сайта в выдаче по всем запросам. Для избежания попадания под фильтр, необходимо создавать текст человекочитаемым а не для поисковика. Выводится при помощи замены оптимизированного текста (плотность ключевых слов не больше 10%). Посчитать плотность (тошноту) можно при помощи онлайн сервисов (к примеру: seotxt).

Google Omitted Results или опущенные результаты. Выпадение из поисковой выдачи страниц сайта. Причиной является дубли мета-тегов, нехваткой ссылок, плохой перелинковкой. Посмотреть дубли мета-тегов можно в кабинете вебмастера Google. Вывод из под фильтра заключается в исправлении мета-тегов, добавлением ссылок на страницы.

Фильтр «дублирующийся контент». Фильтр накладывается на сайты, которые имеют плагиат, дубли, копипаст. Так же накладывается на сайты, контент которых, разобрали другие более авторитетные сайты. Признаки: проседания сайта в результатах выдачи. Вывод из под фильтра заключается в написании уникального контента, проставление тега canonical, избавление от дублирующего контента.

Page Load Time Filter. Фильтр накладывается на тормозящие сайты. Если робот google c трудом скачивает ваш сайт, то о высоких позициях можно забыть. Так же на скорость загрузки влияет ваш хостинг. Подробнее об увеличении скорости сайта можно прочитать здесь и здесь.

Brocken Links Filter. Фильтр за битые ссылки на сайте. Желательно проверять свой сайт на битые ссылки иначе поисковые системы могут дать низкую оценку качеству сайта и не допускать его к выдаче. Для wordpress есть удобный плагин проверки битых ссылок  Broken Link Checker, так же можно воспользоваться программой Xenu Link Sleuth.

Google Bombing. Фильтр за одинаковый (шаблонный) текст ссылки (анкор). При продвижении вашего проекта стоит задуматься о разнообразии ссылок, которые ссылаются на ваш сайт. Так же при покупке этих ссылок создавайте уникальный анкор. Иначе Google расценит такое количество одинаковых ссылок – противоестественно и последует проседание позиций сайта. Так же наращивание таких ссылок не приведет к результату.

To Many Links at Once Filter. Фильтр за ссылочный взрыв. Google расценивает быстрое наращивание ссылочной массы противоестественно, и считает эти ссылки покупными. Поэтому особенно для молодых ресурсов наращивание ссылок должно происходить плавно. Фильтр имеет исключение для мега трастовых ресурсов. При наложении данного фильтра происходит вылет сайта из выдачи. Вывод из под фильтра осуществляется постепенным уменьшением ссылок на сайт до разумных приделов, а затем плавное их повышение.

Google -30. Фильтр применяется к сайтам за использование черного seo. После того как робот обнаружил на вашем сайте клоакинг и прочее, ваш сайт падает на тридцать позиций и затем следует бан сайта. Главная профилактика: не используйте приемы черного seo на своем сайте, используйте на чужом (конкурент) и жалуйтесь на него в google.

На данный момент это основные фильтры Google. В дальнейшем, я уверен, появится фильтр «поведенческого фактора», который будет накладываться на сайты с плохим юзабилити. Так же стоит сканировать свой сайт на наличие вирусов, за которые так же можно получить фильтр.


Оставить комментарий

Ваш e-mail не будет опубликован. Обязательные поля помечены *