Алгоритмы работы поисковых систем постоянно совершенствуются и улучшаются. Но сохраняется главный принцип формирования выдачи результатов поисковых запросов: “наверху самое лучшее”. А это значит, что “не самое лучшее” располагается пониже, а “плохое” может быть вообще удалено из списка. Для такой сортировки применяется сложная, многоуровневая, а главное – уже довольно “умная” система различных фильтров.
Фильтры поисковой системы Google
Фильтры поисковых систем, как и вообще любые другие фильтры, имеют задачу не пропустить «мусор», ухудшающий качество исходящего продукта. В данном случае под продуктом будет подразумеваться, конечно же, список результатов поиска. Поисковая система Google обладает множеством фильтров, ограничивающих участие некачественных веб-страниц в выдаче результатов поиска.
К числу таких фильтров относятся:
Sandbox
Название можно перевести словом «песочница». Фильтр работает для всех новых проектов, поскольку поисковая система доверяет лишь сайтам, существующим в сети достаточно долгое время. «Молодые» проекты должны сначала немного «повзрослеть», для чего они помещаются в «песочницу», и не могут участвовать в выдаче поисковых результатов по средне- и высокочастотным запросам. Другими словами, такие сайты временно исключены из обработки популярных и конкурентных поисковых запросов.
Duplicate Content
Название данного фильтра говорит само за себя. Он отсеивает страницы и сайты, которые содержат контент, скопированный с других ресурсов. Если такого контента окажется «слишком много», данные ресурсы могут быть вообще исключены из выдачи поискового результата. Таким образом, фильтр «Duplicate Content» имеет и обратный эффект – он способствует тому, чтобы в верхней части выдачи присутствовали только сайты, имеющие оригинальный контент.
Supplemental Results (дополнительные результаты)
Фильтр могут получить страницы сайта, которые Гугл считает некачественными или малозначимыми. К примеру, это могут быть страницы с повторяющимся или дублирующимся (не уникальным) контентом. В Supplemental Results (в т.н. «Сопли» или дополнительный индекс) могут попасть и страницы веб-ресурса на которые нет входящих ссылок.
Bombing
На бескрайних просторах Интернета есть и страницы, владельцы и администраторы которых пытаются их «продвинуть» с применением не совсем честных, или совсем нечестных, приёмов. То есть всё, как в старой песенке – «…если кто-то кое-где у нас порой честно жить не хочет…» К числу таких приёмов относится «бомбинг» – покупка ссылок с переспамом «нужного поискового запроса» в анкор-листе. Фильтр отслеживает такие ссылки и соответственно «наказывает» страницы, размещая их там, где им и место – среди страниц небольшой или сомнительной информационной ценности.
-30
Этот фильтр опускает найденную страницу в списке, но не более чем на 30 позиций. Такое наказание применяется в случае обнаружения некоторых приёмов т.н. «чёрной оптимизации» сайта – по сути обманных методов повышения рейтинга. Такие методы в основном сводятся к «подстройке» различных параметров страниц под поисковые алгоритмы, но не ведут к увеличению реальной информационной ценности самого ресурса. Поэтому они и наказуемы.
Быстрый прирост ссылок
Google не любит не только не оригинальный контент, но и множество ссылок на ресурс, которые появились за короткий срок. В этом усматривается способ манипулирования. Быстрый рост ссылок чреват понижением в ранжировании, а также другими довольно неприятными видами санкций вплоть до бана.
Избежать этого поможет хорошо продуманная стратегия наращивания ссылочной массы и их естественное распределение по разным страницам сайта.
Переоптимизация
Бывает, что владелец сайта уж слишком старается для его оптимизации, особенно в плане насыщения его ключевыми словами. Если их будет слишком много, то Google опять же может заподозрить недобросовестные методы продвижения.
Чтобы избежать фильтра переоптимизации, нужно учитывать главное правило поисковых систем – работать для клиента. Потому контент должен быть не только уникальным, а и не раздражать обилием несуразностей в виде большого количества ключевых слов, которые к тому же не органично выглядят в тексте.
Скорость загрузки сайта
Кроме качества контента Google интересует также этот показатель сайта. Снова вступает в силу правило заботы о клиенте. Если сайт слишком долго грузится, пользователь остается недоволен этим результатом поисковой выдачи. Google в этом случае понижает такой веб-ресурс в ранжировании или вовсе его игнорирует.
Необходимо проверить сайт на загрузку и на наличие внутренних проблем, а также постоянно отслеживать такой показатель сайта как скорость загрузки страниц.
Взаимный обмен ссылками
Еще несколько лет назад ссылки на сайт были одним из самых важных параметров продвижения. Ссылки размещались в большом количестве. Но сейчас это воспринимается как недобросовестный способ продвижения. Потому при обнаружении большой массы ссылок на сайт и на сайте поисковая система понижает сайт в ранжировании и может даже наложить бан. Не следует злоупотреблять ссылками и размещать их надо с умом и постепенно.
Прочие фильтры накладывают ограничения на ресурсы, которые:
имеют контент, слабо оптимизированный под ключевые слова;
замечены в активной продаже ссылок;
участвуют в сетях по обмену ссылками;
имеют нерабочие ссылки и т.д.
Таким образом, развитая система фильтров Google помогает пользователям быстро находить в сети то, что им действительно нужно.