10 рекомендацій вебмайстрам від Метта Каттса (Google)
Скільки посилань на сторінці можна? Чи є якийсь ліміт?
Колись GoogleBot та наша система індексації обрізала все до 100 або 101 кб, і все інше не потрапляло до індексу. Ми подумали, що приблизно 1 посилання на кілобайт – це нормально, тому рекомендували використовувати не більше 100 посилань на сторінці. То були наші технічні рекомендації. Але багато вебмайстрів вирішили, що якщо у них буде 102 посилання, то ми їх вважатимемо як спам і візьмемо дії.
Однак, Інтернет постійно розвивається. Зокрема, веб-сторінки стали набагато більшими і можуть мати більше посилань. Тому ми видалили минулі рекомендації і тепер говоримо лише - "використовуйте виправдану кількість посилань". Звичайно ж є ліміт на розмір файлу, який індексується зараз, але він набагато більший, тому ми можемо обробити набагато більше посилань.
Але потрібно мати на увазі, що внутрішня вага розподіляється за кожним посиланням, що виходить зі сторінки. Тому якщо у вас 100 посилань, кожна з них отримає 1/100 ваги, якщо у вас 1000, кожна з них отримає 1/1000 ваги. Якщо у вас безліч посилань, внутрішня вага, що перетікає на кожне посилання стане дуже маленьким. Також, тонни посилань можуть дратувати користувачів або можуть здатися спамними. Спрацює антиспам-алгоритм, якщо ми побачимо безліч дуже схожих спам посилань.
Загалом, зараз цілком нормально мати 200, 300 або 400 посилань на сторінці, якщо сторінка дуже велика, має додаткову цінність, має значну кількість чогось значного… Коротка відповідь: не варто морочитися на цьому, не обмежуйте себе саме 100 посиланнями, але залучіть звичайних користувачів і проведіть тест, чи не виглядають ваші посилання дивними чи спамними.
Чи впливає Твіттер та Facebook на пошук у Google?
Сторінки на фейсбуці чи твіттері сприймаються нами як будь-які інші сторінки в нашому індексі. Тому, якщо якісь сторінки із соціальних мереж доступні для індексації, ми будемо їх показувати у результатах пошуку. При цьому ми не використовуємо для ранжування в органічному пошуку такі дані, як кількість фоловерів у твіттері або друзів на фейсбуці. Ми мали досвід, коли нам заблокували доступ десь на півтора місяці. Тому ми відмовилися намагатися видобувати подібні дані для сторінок, де нас можуть блокувати. Не думайте, що якщо ви маєте якісь дані в соцмережах, вони доступні пошуковій системі.
Чи використовуються для різних позицій у Google різні алгоритми?
Чи використовує Google один і той же алгоритм для результатів на першій сторінці? Чи це різні алгоритми (наприклад, для 1-3 позиції важлива свіжість, для 4-6 важливі посилання, а для 7-10 результатів впливають соціальні сигнали)?
Для ранжування всіх результатів використовується той самий алгоритм. Спочатку ми шукаємо всі відповідні документи (їх може бути сотні чи тисячі), потім сортуємо ці документи з огляду на їхню релевантність та популярність. Тобто ми хочемо в ТОПі бачити максимально релевантні документи і водночас якомога авторитетніші. 9-а позиція не закріплена за сайтами із зворотними посиланнями чи соціальними сигналами. Весь список формується в результаті роботи одного й того самого алгоритму.
Як працювати з частковими дублями на сайті?
Якби вам довелося працювати з частковими дублями контенту на сайті новин (наприклад, публікація новини за двома різними адресами протягом дня), що б ви зробили, щоб уникнути фільтра за дубльований контент?
Сподіваюся, йдеться про білий якісний сайт новин, і у вас присутні дублі, які ви насправді не хотіли б мати. Для вирішення проблеми можна використовувати тег rel=canonical. За наявності безлічі копій короткої історії, ви поділяєте внутрішню вагу між цими історіями/новинами, і якщо вони практично дублюються, я використав би rel=canonical і вказав один головний URL. Якщо ви це зробите, і при цьому не матимете безліч дублів по сайту, то можете не турбуватися про фільтри.
Чи потрібно використовувати різні IP-адреси для сайтів, орієнтованих на різні країни?
В ідеальному світі було б добре мати окрему IP-адресу для .co, co.uk, .com, .fr, .de та інших доменів і розміщувати один сайт у Великій Британії, інший у Франції, а третій у Німеччині :) Але насправді Насправді, щоб розрізняти ваші сайти, нам достатньо того, що у вас змінюється доменна зона. Зовсім не страшно, якщо ви всі свої сайти розмістите на одній IP-адресі. Доменна зона для нас є сильним індикатором, до якої країни належить сайт.
Як сайту вийти з-під фільтра за спамні посилання?
Продаж чи купівлю посилань, які передають PageRank, Google сприймає як порушення правил. Якщо це повторюється багато разів, санкції можуть бути жорсткішими. Тобто ми посилюємо дії під час повторення порушень.
Тому, якщо ви, наприклад, купували посилання з середини 2017 року до кінця березня 2018 року, то відхилити кожне посилання за цей період буде героїчною подією. Якщо у сайту довгий час були хороші посилання, а потім хтось дав вам погану пораду і кілька місяців ви займалися нісенітницею, купуючи посилання, то щоб залишатися в безпеці, відхиліть всі посилання за цей період. Якщо в заявці на перегляд ми побачимо таку радикальну дію з вашого боку, то скажемо, що люди дуже серйозно ставляться до свого сайту. Але, звичайно, я не рекомендую всім відхиляти посилання подібним чином.
Зазвичай ми спостерігаємо у запиті на перегляд, що люди відхиляють кілька посилань з сайту.
Хороша заявка на перегляд нерідко містить відхилення всіх посилань з конкретного домену (використовується оператор “domain:”) і містить велику кількість доменів, які мають погані посилання.
Чи нормально використовувати невеликі порції контенту з інших сайтів?
Чи може сайт почуватися добре в Google, якщо копіює лише частину контенту з інших сайтів і на основі цього створює власну статтю? Припустимо, я згадаю джерела цього контенту у статті.”
Боюся вас розчарувати… Наприклад, Yahoo дуже не любить подібну техніку, називаючи це ститчингом (stitching, англ. зшивка). Якщо ви взяли 2-3 пропозиції з однієї статті, 2 -3 з іншої та 2-3 з третьої, вони це розглядають як спам. Якщо ваше завдання лише розставляти лапки між цими пропозиціями, то тут немає додаткової цінності.
Важливе питання тут: чи це робиться на автоматі? Навіщо ви це робите? Люди не люблять дивитися лише кліпи на ТБ, вони люблять різний контент.
Можна збирати контент із різних джерел та генерувати щось дуже класне. Наприклад, Вікіпедія містить інформацію з певного питання та знизу посилання на джерела, але вони не копіюють текст з цих джерел, а синтезують у новий контент, тому людям подобається Вікіпедія. Тому якщо у вас щось схоже, то не варто турбуватися. Але якщо ви лише копіюєте шматки тексту і публікуєте у себе без додаткової цінності, то ви знаходитесь в зоні ризику і я рекомендував би уникати цього, якщо можливо.
Чи всі посилання з коментарів вважаються спамом?
Якщо хтось опублікував статтю про злочинців у SEO, а я не згоден і залишаю коментар з посиланням на іншу думку, при цьому використовую своє ім'я і часто посилаюся на свій блог, ніж на блог Google або на якийсь інший сайт, тому що я уявляю себе,.. багато людей так роблять і це цілком нормально. При цьому краще залишати своє ім'я, щоб люди розуміли, з ким мають справу, замість “дешеві підручники” або “копії годин”.
Також варто зазначити, що якщо всі ваші посилання йдуть із коментарів і ніхто з людей більше не посилається на ваш сайт, це може розглядатися як маніпуляція посиланнями та може призвести до санкцій. Але якщо ви залишаєте звичайні коментарі, але не робите це в алгоритмі "залишити якусь кількість коментарів на день", то вам нема про що турбуватися.
Чи потрібно для кожної сторінки мати унікальний мета-опис?
Якщо у вас є дубльовані meta-descriptions, то в панелі для веб-майстрів Google ви помітите повідомлення, ми рекомендуємо уникати цього. Можливо, не варто витрачати багато часу, щоб складати унікальні мета-описи для кожної сторінки, наприклад, коли я веду блог, я не дбаю про це. Але якщо мова про важливі сторінки, такі як головна або які дають великий ROI (наприклад, певні товари) або ви помітили в результатах пошуку, деякі сторінки сайту містять дуже погані автоматично згенеровані сніпети, зробіть унікальний і красивий мета-дескрипшн. І краще відсутність мета-описів, ніж однакові всім сторінок.
Чи потрібно використовувати інструмент відхилення посилань, якщо вебмастер упевнений, що до сайту не було застосовано санкцій?
Основна мета інструменту Disavow Tool - почистити результати роботи, якщо ви використовуєте погане SEO або найняли поганого сеошника. Ви повинні зробити все можливе, щоб видалити ці посилання з мережі, але деякі люди не відповідають або з якихось інших причин ви не можете видалити всі посилання, в цьому випадку варто використовувати інструмент Disavow.
З іншого боку, якщо ви турбуєтеся про те, що хтось використовує проти вас погане SEO або якийсь бот генерує купу посилань на ваш сайт і ви не можете зрозуміти, звідки він узявся взагалі, тут теж буде доречно використовувати Disavow Tool. Немає нічого поганого в тому, щоб відхилити погані посилання, навіть якщо ви не отримували повідомлення на панелі для вебмайстрів. Тому, якщо ви не можете заснути з думкою, що Google побачить погані посилання та накладе санкції на ваш сайт, можна спокійно використати інструмент відхилення посилань.
Алгоритм дій:
• Повідомлення у Google
Перевіряємо, чи є повідомлення Google Webmaster Tools. Якщо є, переходимо до наступного пункту.
• Запит на перегляд
У першому запиті на перегляд важливо уточнити, які саме посилання порушують правила пошуку, і запитати, що необхідно зробити для зняття ручних санкцій.
• Отримуємо відповідь
У більшості випадків у відповіді вказують посилання, на думку яких сайт порушує правила пошуку.
У результаті ми можемо визначити, на які саме посилання звертає увагу Google і вважає їх спамними.
У нашому випадку це були орендовані посилання, що досить просто зняти.
• Виконуємо вказані дії
Подальші дії сильно залежать від вашого профілю посилання.
Ситуація 1
На ваш сайт стоїть велика кількість орендованих посилань, і в більшості випадків це прямі анкори, які містять ключові слова.
У такому разі необхідно:
почистити посилання з анкорами (у тому числі ті, які є в прикладі Google)
переходити до наступного пункту – новий запит перегляду
Якщо справді прибрати більшу частину таких посилань, то ручний фільтр можна зняти з одного – двох запитів.
Ситуація 2
Ви на сайт розміщували лише вічні посилання. Більшість яких міститься прямий анкор.
Але зняти такі посилання практично неможливо або дуже довго.
У такому разі необхідно:
переглянути всі зворотні посилання (можна за допомогою сервісів перевірки зворотних посилань,
наприклад: Ahrefs, MajesticSeo, LinkPad)
скласти список посилань, які небажані (основні критерії: анкор, низька якість сайту)
додати посилання в Disawov Tool і почекати 1-2 тижні (з практики необхідно для того, щоб посилання переіндексувалися)
Далі переходимо до наступного пункту та надсилаємо запит на перегляд.
• Надсилаємо новий запит на перегляд
У запиті на перегляд необхідно:
• чітко описати, що ви зробили
• просто та зрозуміло
• та уточнити, що ще необхідно зробити для зняття фільтра
Далі надсилаємо запит на перегляд.
Після чого потрібно трохи часу для перегляду вашого сайту. Це може зайняти від кількох днів до 3-4 тижнів.
• Проміжна відповідь
Це повідомлення від Google надходить практично відразу після надсилання запиту на перегляд.
• Чекаємо на рішення
Відповідь приходить зазвичай протягом 1-2 тижнів, іноді довше, інколи ж швидше.
0 Коментарі