Фильтры поисковой системы Google

Алгоритмы работы поисковых систем постоянно совершенствуются и улучшаются. Но сохраняется главный принцип формирования выдачи результатов поисковых запросов: “наверху самое лучшее”. А это значит, что “не самое лучшее” располагается пониже, а “плохое” может быть вообще удалено из списка. Для такой сортировки применяется сложная, многоуровневая, а главное – уже довольно “умная” система различных фильтров.

Фильтры поисковой системы Google

Фильтры поисковых систем, как и вообще любые другие фильтры, имеют задачу не пропустить «мусор», ухудшающий качество исходящего продукта. В данном случае под продуктом будет подразумеваться, конечно же, список результатов поиска. Поисковая система Google обладает множеством фильтров, ограничивающих участие некачественных веб-страниц в выдаче результатов поиска.

К числу таких фильтров относятся:

Sandbox
Название можно перевести словом «песочница». Фильтр работает для всех новых проектов, поскольку поисковая система доверяет лишь сайтам, существующим в сети достаточно долгое время. «Молодые» проекты должны сначала немного «повзрослеть», для чего они помещаются в «песочницу», и не могут участвовать в выдаче поисковых результатов по средне- и высокочастотным запросам. Другими словами, такие сайты временно исключены из обработки популярных и конкурентных поисковых запросов.

Фильтры Google

Duplicate Content
Название данного фильтра говорит само за себя. Он отсеивает страницы и сайты, которые содержат контент, скопированный с других ресурсов. Если такого контента окажется «слишком много», данные ресурсы могут быть вообще исключены из выдачи поискового результата. Таким образом, фильтр «Duplicate Content» имеет и обратный эффект – он способствует тому, чтобы в верхней части выдачи присутствовали только сайты, имеющие оригинальный контент.

Supplemental Results (дополнительные результаты)
Фильтр могут получить страницы сайта, которые Гугл считает некачественными или малозначимыми. К примеру, это могут быть страницы с повторяющимся или дублирующимся (не уникальным) контентом. В Supplemental Results (в т.н. «Сопли» или дополнительный индекс) могут попасть и страницы веб-ресурса на которые нет входящих ссылок.

Bombing
На бескрайних просторах Интернета есть и страницы, владельцы и администраторы которых пытаются их «продвинуть» с применением не совсем честных, или совсем нечестных, приёмов. То есть всё, как в старой песенке – «…если кто-то кое-где у нас порой честно жить не хочет…» К числу таких приёмов относится «бомбинг» – покупка ссылок с переспамом «нужного поискового запроса» в анкор-листе. Фильтр отслеживает такие ссылки и соответственно «наказывает» страницы, размещая их там, где им и место – среди страниц небольшой или сомнительной информационной ценности.

-30
Этот фильтр опускает найденную страницу в списке, но не более чем на 30 позиций. Такое наказание применяется в случае обнаружения некоторых приёмов т.н. «чёрной оптимизации» сайта – по сути обманных методов повышения рейтинга. Такие методы в основном сводятся к «подстройке» различных параметров страниц под поисковые алгоритмы, но не ведут к увеличению реальной информационной ценности самого ресурса. Поэтому они и наказуемы.

Прочие фильтры накладывают ограничения на ресурсы, которые:

имеют контент, слабо оптимизированный под ключевые слова;
«подозрительно» быстро наращивают ссылочную массу;
замечены в активной продаже ссылок;
участвуют в сетях по обмену ссылками;
имеют нерабочие ссылки и т.д.

Таким образом, развитая система фильтров Google помогает пользователям быстро находить в сети то, что им действительно нужно.

Похожие записи

Начните вводить, то что вы ищите выше и нажмите кнопку Enter для поиска. Нажмите кнопку ESC для отмены.

Вернуться наверх