Фільтри Google - за що можна отримати песимізацію
Сьогодні я хочу поговорити про фільтри, які мають місце в Google, а також поділитися власним прикладом попадання під один з них.
Насправді оптимізація сайту під пошукові запити — це за великим рахунком ходьба лезом бритви. Причому всі ті дії, що зовсім недавно не викликали у пошукових систем жодних нарікань, можуть з часом стати причиною накладання фільтра або навіть попадання в бан.
Песимізація та фільтри під час ранжування (просування)
Навіщо потрібні пошуку ці інструменти?
Ну, очевидно, що для відсіву різних варіантів накрутки та переспаму. Ті самі тексти можна так забити ключовими словами для нібито підвищення відповідності пошуковому запиту, що на документ буде накладено відповідний фільтр, що дозволяє алгоритму виключити такий документ з індексу або серйозно знизити його релевантність. Те саме стосується і переспаму анкор листів і накрутки поведінкових факторів.
Песимізація та фільтри (або бан) – це інструменти пошукових машин для боротьби з накрутками та спамом. Вони останнім часом дуже націлені на те, щоб боротися зі спробами маніпуляцій з факторами просування та спробами поліпшення значення формули релевантності для свого ресурсу. Пошуковики намагаються не допускати і боротися зі штучним впливом на формулу і всі використовувані ними способи песимізації можна поділити на дві категорії:
Фільтри, що накладаються ще до початку побудови формули ранжування для вашого сайту. У цьому випадку пошукові системи знижують вплив або повністю обнулюють для вас деякі фактори, тим самим істотно знижуючи ваші шанси потрапити в Топ видачі. Наприклад, при активних спробах маніпуляції з вхідними посиланнями, можуть обнулити значення динамічних факторів посилань (посилальний або анкорний вплив) для вашого ресурсу (не враховувати посилання взагалі).
Після накладання такого попереднього фільтра, проте, до вашого ресурсу будуть застосовуватися стандартні формули ранжирування, але за рахунок нульового (або зниженого) значення одного з факторів місце вашого сайту в пошуковій видачі не відповідатиме реальній релевантності документа. Песимізація у всій красі.
Існують фільтри, які накладаються вже після того, як для сайту буде розрахована формула. Але внаслідок накладання фільтрів розрахована релевантність буде знижена певну величину, тобто. від отриманого значення для певного документа віднімається штраф. До цього типу фільтрів можна віднести так званий «партинковий фільтр», який за переспам ключових слів у контенті опускав ресурс досить сильно в результатах пошуку.
Афілійованість сайтів — іноді оптимізатори (або власники бізнесу) йдуть на те, щоб захопити якнайбільше місць у Топі пошукової видачі і тим самим перехопити якнайбільше цільових відвідувачів (потенційних клієнтів). Зробити це не так просто, т.к. у результатах пошуку зазвичай відображається лише один документ з кожного ресурсу (найбільш релевантний запиту). Але вихід є.
Створюється ще один або кілька ресурсів, крім основного, і їх теж починають посилено просувати за тими ж пошуковими запитами. В результаті, в Топі результатів пошуку може бути кілька сайтів одного і того ж власника (фірми). Пошуковцям така ситуація не подобається і при виявленні такої спроби вплинути на ранжування, вони накладають фільтр за афілірованість, в результаті дії якого у видачі залишається лише один ресурс, а решта починають вважатися його дзеркалом.
Що примітно, цей фільтр працює не завжди коректно і саме завдяки йому з'явився спосіб боротьби з конкурентами, який дозволяє переконати пошук у тому, що ваш сайт афілійований з ресурсом вашого конкурента, але пошук віддасть перевагу, через низку причин, залишити у видачі саме ваш ресурс , викинувши конкурента не лише з Топа, а й взагалі з результатів пошуку за цим запитом.
Фільтр на однакові сніпети — якщо у кількох сайтів у результатах пошуку за певним запитом будуть певною мірою однакові сніпети, то показуватиметься лише один із них. Причому не факт, що залишиться більш релевантний документ.
Напевно, даний фільтр найбільш актуальний для інтернет магазинів, які часто мають однакові описи товарів (а вони можуть використовуватися як сніпет) взяті з ресурсів виробників.
Фільтри за якість контенту
Фільтр фільтра — переоптимізовані тексти, де надмірно висока кількість вживань ключових слів. Цей фільтр залежить від конкретних запитів (переважно застосовується до комерційних) і його накладення чи ненакладення може вплинути авторитетність ресурсу.
Наприклад, у разі комерційного запиту та п'ятдесяти входжень ключа в тексті документа, ви гарантовано потрапляєте під портянковий фільтр і релевантність вашого документа зменшиться на величину штрафу (до речі, дуже великого, здатного відкинути ресурс за першу сотню у видачі).
Для того, щоб виключити накладання портянкового фільтра, достатньо буде:
уникати багаторазового вживання ключових слів (не більше п'яти десятків у документі, а краще половину від цієї цифри)
не допускати концентрації ключів у кінці тексту (фільтр був спрямований саме на Seo тексти, де всі ключі збиралися в самому кінці тексту, до якого ніхто з відвідувачів не доходив)
не допускати високої концентрації ключових слів у окремих фрагментах тексту, тобто. розподіляти їх якомога рівномірніше
Фільтр за переоптимізацію — спрямований проти маніпулювання текстовими факторами ранжирування та спроби вплинути на релевантність документа. Відрізняється від онучного тим, що штраф накладається не за кількість вживань ключових слів
текст.
Цей фільтр застосовується виключно для комерційної видачі і прив'язується до конкретному пошуковому запиту, т.о. якщо він накладається на документ, то веб-сторінка знижується за всіма запитами, за якими вона просувалася. Причому, штраф (песимізація) при накладенні цього фільтра буде меншим, ніж при накладенні онучного (пару десятків позицій, тобто просто викидається сайт з топу)
Фільтри за вторинність (використання копіпасту) контенту
Фільтри за якість вхідних посилань
Посилальний вибух - даний фільтр накладається тоді, коли різко збільшується маса посилань ведуча на сайт. Він присутній у Google, причому в Гуглі песимізація за вибух вибуху для молодих ресурсів навіть більш актуальна. Тому, якщо ресурс взагалі ще не має маси посилань, слід обмежитися приростом беклінків, скажімо, не більше десяти на тиждень.
Багато посилань з поганих і ненадійних, з погляду пошукових систем, ресурсів може призвести до проблем із ранжуванням (накладення фільтра). До питання про користь автоматичного прогону по десятках тисяч ГС каталогів - кілька посилань підуть у плюс вашому сайту, а ось інші можуть стягнути його під фільтр за неякісну масу посилань і, як наслідок, зниження у видачі (песимізація).
Покупні Seo посилання - пошукові системи вміють визначати покупні беклінки з великою часткою ймовірності, але комерційні посилання не завжди є зло з погляду пошуку, бо часто проставляються вони з якісних та авторитетних ресурсів. Покупні лінки на комерційні запити можуть позитивно впливати на ранжування і збільшувати релевантність документа.
Інша справа, коли ви спробуєте просувати інформаційні запити за допомогою закупівлі маси посилань, то це буде просто марна трата грошей і часу. Виходить своєрідний запитозалежний посилальний фільтр.
Участь у лінкаторах (автоматичних біржах з обміну посиланнями) також може призвести до накладення фільтра і, як наслідок, зниження у видачі.
Підвищуючи релевантність, можна потрапити під фільтр.
Ось саме про ті неправедні способи підвищення відповідності сторінок свого сайту вимогам пошукових систем, які можуть призвести до абсолютно зворотного ефекту (сильного зниження позицій у пошуковій видачі - накладення фільтра, песимізації або бану).
На ранжування дуже впливає таке поняття, як траст, а підняти його можна зворотними посиланнями з трастових ресурсів. Тому було б непогано спробувати додати сайт в Трастовий каталог.
Ну, це так, для загальної інформації, а тепер, напевно, настав час переходити до перерахування заборонених методів маніпуляції релевантністю веб документів. Справа в тому, що пошукові системи можуть не тільки підвищувати або знижувати рівень відповідності сторінок наших сайтів запитам пошуку, але й можуть застосовувати санкції та вносити їх до чорних списків, якщо вони вважають, що ми їх намагаємось обдурити (описані вище фільтри та бани).
Декілька років тому було досить популярним заняттям створювати дорвеї, тексти сторінок яких генерувалися автоматично з простановкою потрібної кількості ключових слів. Таким чином ці дорвеї потрапляли в Топ видачі за потрібними ключовими запитами, але користувачі, що переходять на дори з пошукових систем, не бачили цей автоматично генерований бредо-текст, т.к. їх автоматично перекидало на сторінки зовсім іншого ресурсу, що просувається таким чином.
Цей спосіб просування відноситься до так званого чорного SEO. Зараз рухатися за допомогою дорвіїв дуже важко у зв'язку з дуже серйозним ставленням до цієї проблеми пошукових систем. Дори просто довго не живуть і вмирають, так і не встигнувши потрапити до Топ пошукової видачі.
Однак, їх все одно продовжують клепати, дорвеєбудівники намагаються завжди знайти лазівку у все ще досить великої мережі пошуковиків, в якій вони відловлюють кандидатів на відправку в бан або під фільтр.
Просування за допомогою прогону по каталогах, яке було популярне кілька років тому, зараз уже не працює через знаходження всіх цих каталогів під фільтрами (вони штучно занижені в ранжируванні, незважаючи на реальну релевантність їхніх сторінок). Загалом не створюйте самі ГС каталоги і не проганяйте по них свої ресурси, бо це абсолютно марно (якщо не шкідливо).
Далі йде вже банальність — у видачі будуть знижені ресурси з невидимим або слабко видимим текстом (білим по білому тощо) та посиланнями.
Зрозуміло, що якщо ви чогось ховаєте від відвідувачів (наприклад, онучу тексту, напхану ключовими словами), то незважаючи на високу релевантність цієї сторінки запиту, ПС все одно не дозволить їй високо піднятися у видачі.
При використанні клоакінгу сайт програмується таким чином, щоб визначати, хто саме здійснює запит даної веб-сторінки - пошуковий робот або браузер користувача (зробити це не складно на основі аналізу запиту до веб-сервера). Відповідно, роботу віддається веб-сторінка релевантна потрібному запиту, а реальному користувачеві показується зовсім інший вміст.
Досить часто раніше зустрічався на багатьох сайтах такий вид спаму — «нас знаходили за такими пошуковими запитами» і далі слідував список цих запитів. Веб сервер збирав цю інформацію і викладав на цій веб-сторінці запити в чистому вигляді, тим самим істотно підвищуючи релевантність цієї сторінки.
Ось я раніше потрапляючи на таку сторінку дуже довго ворожив, а чого це мене пошуковик на неї навів, коли там немає відповіді на моє запитання (навіть натяку немає), а лише перелічені фрази, включаючи ту, яку ставив і я в пошуковому рядку. Природно, що така вигажена видача не подобається нікому (пошуковики втрачають на цьому лояльних відвідувачів) і починають знижувати в ранжируванні такі ресурси, заганяючи їх під фільтри або навіть у бан (повне вилучення з індексу).
Плагіни та розширення, що реалізують такий вид спаму для збільшення релевантності сторінки, можна зустріти і зараз, але боронь вас скористатися ними — ні в якому разі, бо відразу песимізують і так знизять у видачі, що трафіку з пошукових систем взагалі не буде.
Але що прикро, іноді під цей фільтр можна потрапити за використання абсолютно, здавалося б, невинної «хмари тегів», якщо пошуковик визнає його за такий вид спаму і прагнення штучно підвищити відповідність сторінки запитам пошуку.
Далі ПС застерігає нас від створення кількох ресурсів для одного власника (афільованість).
Є такий хитрий спосіб окупації всього топу пошукової видачі за рахунок створення цілої когорти сайтів для однієї і тієї ж фірми, які робляться на різних доменних іменах та наповнюються різним контентом, з високою релевантністю потрібним запитам. В результаті просування їх виштовхує в топ видачі Гугла і, у разі великої удачі, весь Топ 10 може бути заповнений ресурсами однієї фірми.
Для цієї фірми це буде незаперечна удача, але пошуковикам така ситуація здається неправильною і вони всіма силами та засобами намагаються виявити та знизити у видачі такі дублікати (аффіліати). Зазвичай афіліати паляться (попадають під афіліат-фільтр) на однакових контактних телефонах та інших ознаках власності одному власнику, але набагато частіше за «стуканням» конкурентів.
Зрозуміло, що пошуковикам не цікаві спамні форуми та дошки оголошень, де будь-який відвідувач може написати все що завгодно та поставити будь-яке потрібне йому посилання, і вони нещадно знижуватимуть у ранжируванні та фільтруватимуть аж до повного виключення з індексу (бана).
Пошуковикам дуже не подобаються ресурси, що продають посилання для накачування релевантності інших ресурсів. Продажні посилання псують стрункий алгоритм ранжирування, що ґрунтується на посилальному факторі.
Однак, основним ризиком потрапляння під фільтр або в бан піддаються ресурси, що встановлюють скрипти бірж посилань типу Sape.
Досить часто, особливо кілька років тому, для просування проектів та отримання зовнішніх посилань використовували звані «сателіти», тобто. група сайтів, яка створюється тільки для просування одного або декількох ресурсів шляхом проставлення на нього посилань. Такі речі дуже не подобаються пошукача, т.к. створюється штучна накрутка релевантності та сітки сателітів досить ефективно виявляють та відправляються під фільтр або в бан.
Практично на будь-якому ресурсі буде присутній внутрішній пошук. Він може бути реалізований засобами движка, що використовується, а може бути прикручений за допомогою скрипту пошуку по сайту від Гугла. Але в будь-якому випадку сторінки з результатами пошуку за матеріалами вашого ресурсу не повинні потрапляти в індекс пошукових систем, щоб уникнути накладання фільтра.
Як це зробити? Ну, у нас завжди є під рукою дуже сильний інструмент управління індексацією сайту — robots.txt.
0 Коментарі