About Me

header ads

5 звичних методів пошукового просування, від яких краще відмовитись

 У цій статті я розповім про широко відомі методи пошукового просування, які майже завжди дають швидкий та цілком помітний ефект у вигляді підвищення позицій та трафіку. Чому від цих методів варто відмовитися? Тому що в більшості випадків ефект цей дуже хиткий і нетривалий. Після кількох тижнів успіху може настати розчарування – сайт потрапить під фільтр, і про відвідувачів з топу залишаться лише спогади.


Йтиметься суто про стратегічні рішення пошукового просування, а не технічні прийоми, як-то виділення запитів стронгами або використання спамових конструкцій у текстах. Оскільки такі методи не вирішують завдання комплексно, а лише створюють видимість рішення, і то – тимчасового, я називаю їх “милицями”. Незважаючи на масове усвідомлення необхідності орієнтуватися на відвідувачів при оптимізації сайтів, я все ще отримую питання від читачів, як правильно використовувати ту чи іншу милицю (правильна відповідь – ніяк). Ця посада послужить мені в майбутньому універсальною і розширеною відповіддю на такі питання. Тож поїхали.


1. Створення окремих сторінок під пошукові запити з однаковим змістом


Як би Ви вчинили, якби у вашому семантичному ядрі 3-5 фраз, різних за звучанням, але абсолютно однакових за змістом?


Приклад:


"курси англійської онлайн"

"навчання англійської online"

"вчити англійську онлайн"

"Онайн курси англійської мови"

"англійську мову вчити онлайн"


З погляду здорової логіки звичайного відвідувача, всі ці фрази несуть абсолютно ідентичне смислове навантаження, і було б, м'яко кажучи, дивно створювати під кожну окрему сторінку.


Але деякі SEO-фахівці впевнені в існуванні певного канону, згідно з яким кожен ключовик повинен обов'язково перебувати в Title, URL, H1 і першому абзаці тексту сторінки, що просувається. Зрозуміло, що при такому розкладі без створення окремої сторінки під кожен запит не обійтися, і слухняний канону оптимізатор починає клепати сторінки під однакові за змістом запити.


Зміст таких сторінок, як правило, має найвищий відсоток технічної унікальності, але насправді є переливанням однієї й тієї ж суті з порожнього в порожнє.


І оскільки оптимізатор зазвичай не соромиться виводити посилання на весь гурт пустопорожніх сторінки в меню, бідному користувачеві спочатку може здатися, що у компанії дуже багато схожих послуг.


Але вже через 1-2 хвилини у нього виникне питання, чим відрізняється послуга навчання англійської мови у Skype від послуги навчання англійської мови у скайпі?


Побоюючись остаточного колапсу своєї сірої речовини, користувач залишить сайт, погіршивши ПФ однієї або кількох псевдопосадкових сторінок. Після того, як таким за таким же сценарієм пройдуть сотні відвідувачів, сайт розпочне проблеми. У найкращому разі низький ПФ потягне позиції вниз, у гіршому – антиспам-алгоритми зроблять свою справу та сайт потрапить під фільтр.


Песимізація в такому разі аж ніяк не смертельна і лікується ампутацією зайвих кінцівок, тобто порожніх сторінок. З такими випадками у практиці аудитів ми стикаємося постійно.


Альтернатива


Як же догодити і відвідувачам, і пошукачам одночасно? Потрібно слідувати здоровому глузду та оптимізувати одну сторінку під всі однакові за змістом запити. При цьому в жодному разі не слід пхати всі запити через кому в заголовки та URL. Якщо у title у вас буде одне формулювання, h1 – інше, а в тексті – третє, релевантність вашої сторінки не постраждає. Пошуковики, які розуміють мову, відмінно розпізнають синоніми та враховують їх під час ранжирування.


Звичайно, якщо йдеться про схожі запити, що мають різний зміст (наприклад, “курси англійської мови” та “курси німецької мови”), різні посадкові сторінки створювати можна і потрібно – це не лише спростить просування, а й підвищить конверсію.

2. Оптимізація тексту під запити, на які сторінка не дає повноцінної відповіді


Іноді з метою залучити пошуковий трафік за “колотематичними” запитами, оптимізатори додають їх у текст і виділяють атрибутами, що підсилюють. Але сам факт знаходження будь-якого запиту в тексті сторінки не говорить про те, що ця сторінка дає відповідь.


Припустимо, на одному порталі про стільникові телефони є сторінка описом технічних параметрів Samsung Galaxy Note і фотографією цього девайса в чорному кольорі. Щоб малими силами залучити якомога більше відвідувачів, поверхово мислячий оптимізатор додає в текст якнайбільше фраз, пов'язаних з цією моделлю – Samsung Galaxy Note чорний, Samsung Galaxy Note білий, Samsung Galaxy Note відгуки, Samsung Galaxy продаж". Як правило, критерієм вибору фраз у таких випадках є частота (чим частотніше - тим краще), а не відповідність контенту сторінки.


У результаті багато "околотематичні" запити, які знаходяться в тексті, мають дуже непряме відношення до контенту. Трафік, який генерують ці запити – нецільовий та потенційно небезпечний для здоров'я сайту.


Наприклад, будь-якому адекватному користувачеві, що потрапив на сайт з видачі на запит “Samsung Galaxy Note відгуки”, вистачить і 5 секунд, щоб зрозуміти, що жодних відгуків на сайті немає. Відвідувач закриє сайт і повернеться назад у видачу, а сайт отримає мінус у ПФ-карму та приверне увагу антиспам-технологій.


До речі, така схема раніше працювала на ура, особливо для старих сайтів. Додаєш у текст фразу – сайт у топ 10 одразу після переіндексації. Виділяєш цю фразу стронгом - після чергового апа сайт у Топ-3. "Посипалися" такі сторінки у листопаді 2011 року, після першої хвилі фільтра за переоптимізацію.


Альтернатива


Не варто ризикувати поточним цільовим трафіком, намагаючись розширити семантику за рахунок популярних запитів, на які сайт не відповідає в принципі. Краще знайти менш популярні, але цільові ключові слова, що доповнюють основне ядро.


Буває, що від запитів із сумнівною релевантністю відмовитись неможливо (наприклад, на їх наявності у списку наполягає клієнт). Тоді потрібно обов'язково додати на сайт контент, що відповідає цим запитам (дод. фотографії, місця продажу, діапазон цін).


3. Додавання малоінформативних розділів у межах внутрішньої оптимізації


В даному випадку йдеться насамперед про сайти з комерційним ухилом, які щось продають або представляють якусь компанію.


Щоб мати додатковий матеріал для проставлення внутрішніх посилань на посадкові сторінки, щоб збільшити загальну кількість сторінок або ще хто знає якими цілями, оптимізатор починає додавати на сайт так званий інфоконтент. Зазвичай це статті, новини, огляди та інша інформація, написана віддаленими копірайтерами на замовлення і що дуже опосередковано стикається з діяльністю компанії.


Поки псевдоінфорозділ не перевищить у кілька разів основний зміст сайту, особливої ​​загрози сайту щодо песимізації немає. Але щодо користі, то її теж немає. Зазвичай весь інфоконтент стругається копірайтером по одному шаблону (наприклад: заголовок, картинка, текст певного обсягу, одне посилання на посадкову). Це значно спрощує пошуковикам завдання виключити такі сторінки як кластер з числа, що впливають на релевантність сайту.


Але якщо інфорозділ роздувається до немислимих меж, ПС може віддати оптимізатору за його працю не трафіком, а фільтром (АГС).

Альтернатива


Я не вважаю, що інфорозділи – це погано. Погано, коли вони створюються за шаблоном і єдиною метою покрити якісь SEO-завдання. Якщо розділ створюється з основною метою допомогти відвідувачам, і за сумісництвом виконує якісь SEO-задачі, з великою ймовірністю сайт отримає бажаний бонус. Важливий момент – кожна стаття в інфоділі повинна мати безпосередній зв'язок із діяльністю самої компанії.


4. Створення малоінформативних піддоменів для просування сайту по регіонах


Отримання трафіку з різних регіонів – одне з тривіальних питань SEO з того часу, як ПС викотив “Сніжинськ”.


Для вирішення цього питання багато оптимізаторів для кожного міста створюють піддомен і надають йому регіон. Сам по собі цей метод цілком життєздатний, але лише за умови, що кожен піддомен буде наповнений природничо-унікальним (а не технічно-унікалізованим) змістом. Кожен піддомен має бути “все своє” – база пропозицій, статті, відгуки, контакти. По суті, кожен піддомен має бути окремим та цілком незалежним регіональним сайтом. Хороший приклад – піддомени Olx.


Але у більшості вебмайстрів ніде брати природно-унікальний контент для сайтів, і вони начитають або висмоктувати його з пальця, або запускати в індекс напівпорожні піддомени. Ще гірше, коли контент для субдоменів генерується автоматично – всі мета-теги та тексти однакові, автоматично змінюється лише назва міста.

Імовірний результат у такому разі – песимізація сайту як АГС.


Альтернатива


Якщо вам нема де взяти природний контент для піддоменів, отже, такий спосіб регіонального просування вам не підходить.

5. Створення кількох сайтів для просування за однаковими запитами


Одне з найпопулярніших питань, які мені ставлять потенційні клієнти – як створити кілька сайтів однієї тематики, щоб ПС їх не склеїв? Цілі, заради яких робляться такі сайти, цілком зрозумілі – чим більше сайтів у топі, тим трафіку та сумарних конверсій за одними й тими самими ключовими словами. Крім того, якщо якийсь із сайтів просяде у видачі, у топі залишаться інші і компанія не втратить продажу.


Ризик при використанні такого "милиці" - фільтр афілірування, вилікуватися від якого дуже складно.


Багато вебмайстрів вважають, що якщо дизайн, структура, текстове та графічне наповнення, хостинг та власники доменів різні, то ПС ніколи не здогадається, що сайти належать одному власнику. Насправді, афілійованість давно визначається за іншими неявними ознаками. Наприклад, якщо у двох абсолютно різних зовнішньо інтернет-магазинів буде однаковий асортимент, ціни та умови доставки, вберегти сайти від склейки не зможуть навіть різні контактні дані та назви фірм.


Альтернатива


Якщо компанія прагне за допомогою декількох сайтів мінімізувати ризики просування, а не монополізувати видачу, то чудовою альтернативою може бути просування сайтів за різними запитами. Відомо, що афілірування – запитозалежний фільтр (за кожним запитом у видачі залишається лише один сайт власника). Якщо сайти з однаковим асортиментом будуть просуватися за різними запитами, можна уникнути склейки. Наскільки таке просування вигідне для компанії залежить від багатьох факторів.


Стає очевидним, що зараз будь-які методи “ботоорієнтованого” просування – це милиці, тимчасові підпори, які у разі “поломки” можуть загубити весь сайт. Якщо SEO-метод суперечить здоровій логіці і не робить сайт кращим для користувача, від нього краще відмовитися і не ризикувати.

5 звичних методів пошукового просування, від яких краще відмовитись


Дописати коментар

0 Коментарі