Алгоритми роботи пошукових систем постійно вдосконалюються і поліпшуються. Але зберігається головний принцип формування видачі результатів пошукових запитів: “нагорі найкраще”. А це означає, що “не найкраще” розташовується нижче, а “погане” може бути взагалі видалено зі списку. Для такого сортування застосовується складна, багаторівнева, а головне – вже досить “розумна” система різних фільтрів.

Фільтри пошукової системи Google

Фільтри пошукових систем, як і взагалі будь-які інші фільтри, мають завдання не пропустити “сміття”, що погіршує якість вихідного продукту. У цьому разі під продуктом буде матися на увазі, звичайно ж, список результатів пошуку. Пошукова система Google має безліч фільтрів, що обмежують участь неякісних веб-сторінок у видачі результатів пошуку.

До числа таких фільтрів належать:

Sandbox
Назву можна перекласти словом “пісочниця”. Фільтр працює для всіх нових проектів, оскільки пошукова система довіряє лише сайтам, які існують у мережі досить довгий час. “Молоді” проєкти повинні спочатку трохи “подорослішати”, для чого їх поміщають у “пісочницю”, і вони не можуть брати участь у видачі пошукових результатів за середньо- і високочастотними запитами. Іншими словами, такі сайти тимчасово виключені з обробки популярних і конкурентних пошукових запитів.

Duplicate Content
Назва цього фільтра говорить сама за себе. Він відсіює сторінки і сайти, які містять контент, скопійований з інших ресурсів. Якщо такого контенту виявиться “занадто багато”, ці ресурси можуть бути взагалі виключені з видачі пошукового результату. Таким чином, фільтр “Duplicate Content” має і зворотний ефект – він сприяє тому, щоб у верхній частині видачі були присутніми тільки сайти, що мають оригінальний контент.

Supplemental Results (додаткові результати)
Фільтр можуть отримати сторінки сайту, які Гугл вважає неякісними або малозначущими. Наприклад, це можуть бути сторінки з повторюваним або дубльованим (не унікальним) контентом. У Supplemental Results (у т.зв. “Соплі” або додатковий індекс) можуть потрапити і сторінки веб-ресурсу, на які немає вхідних посилань.

Bombing
На безкрайніх просторах Інтернету є й сторінки, власники та адміністратори яких намагаються їх “просунути” із застосуванням не зовсім чесних, або зовсім нечесних, прийомів. Тобто все, як у старій пісеньці – “…если кто-то кое-где у нас порой честно жить не хочет…” До числа таких прийомів належить “бомбинг” – купівля посилань із переспамом “потрібного пошукового запиту” в анкор-листі. Фільтр відстежує такі посилання і відповідно “карає” сторінки, розміщуючи їх там, де їм і місце – серед сторінок невеликої або сумнівної інформаційної цінності.

-30
Цей фільтр опускає знайдену сторінку в списку, але не більше ніж на 30 позицій. Таке покарання застосовується в разі виявлення деяких прийомів т. зв. “чорної оптимізації” сайту – по суті обманних методів підвищення рейтингу. Такі методи в основному зводяться до “підстроювання” різних параметрів сторінок під пошукові алгоритми, але не ведуть до збільшення реальної інформаційної цінності самого ресурсу. Тому вони й карані.

Швидкий приріст посилань
Google не любить не тільки не оригінальний контент, а й безліч посилань на ресурс, які з’явилися за короткий термін. У цьому вбачається спосіб маніпулювання. Швидке зростання посилань загрожує зниженням у ранжируванні, а також іншими досить неприємними видами санкцій аж до бану.
Уникнути цього допоможе добре продумана стратегія нарощування посилальної маси та їхній природний розподіл по різних сторінках сайту.

Переоптимізація
Буває, що власник сайту аж надто старається для його оптимізації, особливо в плані насичення його ключовими словами. Якщо їх буде занадто багато, то Google знову ж таки може запідозрити недобросовісні методи просування.
Щоб уникнути фільтра переоптимізації, потрібно враховувати головне правило пошукових систем – працювати для клієнта. Тому контент має бути не тільки унікальним, а й не дратувати великою кількістю безглуздостей у вигляді великої кількості ключових слів, які до того ж не органічно виглядають у тексті.

Швидкість завантаження сайту
Крім якості контенту Google цікавить також цей показник сайту. Знову набуває чинності правило турботи про клієнта. Якщо сайт занадто довго вантажиться, користувач залишається незадоволений цим результатом пошукової видачі. Google у цьому разі знижує такий веб-ресурс у ранжируванні або зовсім його ігнорує.
Необхідно перевірити сайт на завантаження і на наявність внутрішніх проблем, а також постійно відстежувати такий показник сайту як швидкість завантаження сторінок.

Взаємний обмін посиланнями
Ще кілька років тому посилання на сайт були одним із найважливіших параметрів просування. Посилання розміщувалися у великій кількості. Але зараз це сприймається як недобросовісний спосіб просування. Тому в разі виявлення великої маси посилань на сайт і на сайті пошукова система знижує сайт у ранжируванні і може навіть накласти бан. Не слід зловживати посиланнями і розміщувати їх треба з розумом і поступово.

Інші фільтри накладають обмеження на ресурси, які:

  • мають контент, слабо оптимізований під ключові слова;
  • помічені в активному продажі посилань;
  • беруть участь у мережах з обміну посиланнями;
  • мають неробочі посилання тощо.

Таким чином, розвинена система фільтрів Google допомагає користувачам швидко знаходити в мережі те, що їм дійсно потрібно.