About Me

header ads

Технічна оптимізація

 Технічна оптимізація сайту (або технічні доопрацювання) – це комплекс заходів, спрямованих на коригування технічних аспектів ресурсу для правильної взаємодії з роботами пошукових систем.


Головною метою цього етапу є забезпечення максимально швидкої, повної та коректної індексації сторінок сайту.


Індексація сторінок – це впровадження в базу даних пошукових систем відомостей про сайти: ключових слів, посилань, текстових та графічних матеріалів з метою подальшого ранжування ресурсу результати видачі.

Щоб технічна оптимізація була ефективною, слід приділяти увагу роботі над безліччю важливих елементів і усувати перешкоди, що виникли на сайті.


Найпоширенішими є:

• проблеми хостингу;

• неоптимізований код сторінки;

• неправильно налаштований статус-код;

• некоректне використання редиректів;

• неписьменна обробка помилки 404;

• помилки у налаштуванні дзеркал;

• дублі сторінок/контенту;

• биті посилання;

• зовнішні посилання, відкриті для індексації;

• неписьменно складений файл robots.txt;

• помилка файлу sitemap.xml.


Розглянемо їх докладніше.


Проблеми хостингу


Хостинг – це майданчик для розміщення інформації на підключеному до інтернету сервері, одна з найважливіших складових якісного сайту. Якщо він працюватиме справно, без збоїв і помилок, роботи пошукових систем зможуть легко проіндексувати ресурс.


Якщо робот неодноразово спробує зайти на недоступний і непрацюючий сайт, він може вирішити, що ресурсу більше не існує, і виключить його з індексу. В результаті час та бюджет на просування можуть бути витрачені марно.


У неякісних ресурсів найчастіше спостерігаються такі проблеми хостингу:


1. Низький аптайм. Аптаймом називається час, протягом якого сервер перебував у повністю працездатному стані та був доступний із мережі. Цей показник має прагнути 100%. Відмінним вважається значення аптайму – 99,98%. Якщо вона набагато нижча, це може стати серйозним обмеженням для просування і не дозволить вашому сайту надалі зайняти високі позиції в ТОП ПС.

Щоб уникнути таких ситуацій, значення аптайму потрібно систематично відстежувати. Зробити це можна кількома способами:


• Через хостинг-провайдер, послугами якого ви користуєтесь.


Зазвичай великі хостинг-компанії самостійно аналізують аптайм сервера і у разі виникнення будь-яких неполадок відразу ж повідомляють про це клієнтів електронною поштою, телефоном та іншими каналами.

• За допомогою спеціальних сервісів. Існує безліч як безкоштовних, і платних автоматизованих систем, дозволяють перевірити працездатність ресурсу.


2. Тривалий час відгуку сервера. Чим швидше користувачі та пошукові роботи зможуть отримати доступ до сайту, тим краще: знизиться ймовірність того, що відвідувачі не дочекаються завантаження ресурсу та покинуть його, а ПС некоректно його проіндексують. Тому чим значення цього показника менше, тим краще. Час відгуку сервера вимірюється в мілісекундах (ms).


3. Присутність IP-сервера хостингу в спам-листах поштових сервісів, ПС та ін. Дане обмеження не дозволяє коректно використовувати форми, що взаємодіють із поштою на ресурсі. Якщо користувач вирішить зв'язатися із власником сайту через анкету зворотного зв'язку, його повідомлення не дійде до адресата, оскільки буде заблоковано на поштовому сервері. Дані перешкоди негативно вплинуть на поведінку як користувачів, так і ПС і значно знизить шанси вашого ресурсу посісти високі позиції в ТОПі.

Якщо, проаналізувавши ресурс, ви виявили хоча б одну із зазначених проблем хостингу, вам необхідно якнайшвидше приступити до їх вирішення.


Зробити це можна так:


• Звернутися до служби підтримки вашого хостинг-провайдера з проханням усунути перешкоди. Можливо, буде необхідно підключити більш дорогий тарифний план, в рамках якого надається більший обсяг дискового простору, більший або необмежений ліміт трафіку, поштових скриньок тощо. У результаті ваш ресурс почне працювати швидше та ефективніше.

• Оптимізувати код веб-сайту. Найчастіше код може містити помилки, які призводять до уповільнення виконання функцій ресурсу та надмірного навантаження на хостинг. Щоб визначити та усунути всі недоліки, що є в коді, знадобиться час і навички в області веб-розробки. Якщо ви не маєте таких ресурсів, вам рекомендується звернутися до професіоналів.

• Змінити хостинг-провайдер. Якщо вам не вдалося усунути проблеми хостингу за допомогою двох попередніх методів, скористайтеся послугами іншої організації, яка зможе надати вам якіснішу технічну підтримку.


Неоптимізований код сторінки


Оптимізація коду сторінки – це заходи, спрямовані на максимально можливе зменшення його довжини, а також усунення помилок HTML і CSS. Коректність коду безпосередньо впливає швидкість завантаження сторінки і кросбраузерность ресурсу.

Кросбраузерність – здатність сайту коректно відображатися та працювати у всіх популярних браузерах та показувати матеріал з однаковим ступенем читабельності.


Наявність у коді певних перешкод негативно позначиться на індексації, і навіть дозволить відвідувачам ресурсу ефективно взаємодіяти з нею.


Розглянемо основні проблеми коду сторінки та способи їх вирішення.


1. Занадто довгий код


Код сторінки повинен містити в собі лише потрібну інформацію, розташовану в правильному порядку. Усі інші елементи слід видаляти чи закривати від індексації. На жаль, на багатьох неякісних ресурсах довжина коду не приділяється належної уваги. У результаті більшість із них не може виявитися вищою за ТОП 50 у результатах видачі ПС.


З'ясуємо, як оптимізувати розмір коду сторінки і як грамотно розподілити всі його складові:


• Пошукові системи надають пріоритет інформації, що знаходиться у верхній частині сторінки. Тому в коді насамперед слід розміщувати найзначніші складові. Такими елементами є заголовок title (назва сторінки) та метатеги description (короткий опис) та keywords (ключові слова, що визначають основний зміст сторінки). Саме вони повинні розташовуватися відразу після тега <head> на самому початку коду.

• Значну частину неоптимізованого коду можуть займати CSS-стилі та JavaScript. Щоб не збільшувати швидкість завантаження сторінки, слід розміщувати CSS-стилі та JavaScript в окремі файли .CSS та .JS відповідно. Якщо ці технічні елементи не містять корисної інформації, їх потрібно закривати від індексації за допомогою тега <noindex>.

• Код сторінки також може містити елементи, які не містять важливої інформації. До них можна віднести лічильники статистики, форми голосувань, опитувань, заявки чи пошуку товару, авторизації тощо.

Такі елементи слід закривати від індексації, щоб скоротити розмір коду та підвищити загальну релевантність сторінки. Зробити це можна, уклавши їх у тег <noindex>.

• У коді також можна зустріти елементи, приховані від користувачів засобами CSS-форматування. Вони не несуть у собі корисної інформації для відвідувачів сайту, а пошукові системи ставляться до них несхвально, що може негативно вплинути на позиції ресурсу. Тому, виявивши подібні складові, їх потрібно якнайшвидше видалити.


2. Невалідність HTML-коду, CSS


Валідність – це відповідність вихідного коду сайту до світових стандартів World Wide Web Consortium (W3C).


Зверніть увагу на те, що код валідної сторінки повинен підкорятися певним правилам, які називаються специфікацією.

Досягти цього показника досить складно, але цього варто прагнути, щоб підвищити шанси сайту отримати високі позиції у видачі ПС. Для цього потрібно систематично перевіряти, чи його сторінки є валідними. Зробити це можна за допомогою сервісу Markup Validation Service: введіть адресу сторінки, що вас цікавить, у відповідний рядок і натисніть кнопку Check.


3. Неправильне налаштування кодування сайту


Кодування – це набір машинних кодів, які притаманні певним символам алфавіту. Сьогодні найбільш популярним є одне із загальноприйнятих і стандартизованих кодувань тексту – UTF (та її версія UTF-8), що дозволяє зберігати символи Unicode.

Якщо кодування сайту неправильне, символи спотворюються і браузер не зможе визначити, як відображати ресурс користувачам.

Крім того, робот пошукової системи може не розпізнати текст на сторінці, і важлива інформація на ній не буде доступна користувачеві. У зв'язку з цим ресурсам з україномовним контентом не рекомендується експериментувати при виборі кодування, а навпаки слід використовувати звичні UTF-8, KOI8-R або Windows-1251.


Визначити кодування вашого сайту, щоб своєчасно виправити його у разі потреби, можна так:

• Самостійно. Відкрийте вихідний код сторінки в браузері, натиснувши клавіші Ctrl+U, знайдіть тег <meta http-equiv="">. Наприкінці його вказується кодування:

• За допомогою спеціалізованих сервісів.

• За допомогою сервісу Markup Validation Service для визначення валідності сторінки. Кодування сайту вказано у полі Encoding.

Якщо ви проаналізували ваш ресурс і з'ясували, що кодування на ньому налаштоване некоректно, необхідно це виправити, вибравши один із двох способів:


• вказати тег <meta http-equiv=""> з правильними атрибутами кодування на всіх сторінках сайту;

• прописати у файлі .htaccess, що лежить у кореневому каталозі сайту, директиву AddDefaultCharset із зазначенням потрібного кодування.


Неправильно налаштований статус-код


Коли робот пошукової системи переходить на сторінку ресурсу, в першу чергу він автоматично отримує від сервера її статус-код – цифрове повідомлення про стан сторінки (існує вона чи ні), помилки сервера, переадресацію на іншу сторінку і т.д.


Можна виділити певні групи статус-кодів, які повідомляють пошукову роботу певну інформацію. Кожна група цих кодів починається з конкретної цифри:


• 1xx – повідомляють про передачу даних;

• 2xx – надають інформацію про те, чи успішно працює ресурс;

• 3xx – повідомляють про перенаправлення/редиректу запиту на іншу адресу;

• 4xx – інформують про неможливість роботи сайту на стороні клієнта;

• 5xx – вказують на помилку роботи ресурсу на стороні сервера.


Серед множини статус-кодів як основні можна виділити такі:


200 - сервер успішно відкрив сторінку сайту. Пошукові роботи будуть індексувати лише сторінки, які надають цей статус-код.

301 - перенаправлення назавжди (постійне). Цей код повідомляє і пошуковому роботі, і відвідувачеві ресурсу, що цієї сторінки не існує, але є її аналог, куди і здійснюється редирект. Його обов'язково використовувати, якщо ви вирішите змінити адресу конкретної сторінки або перенести сайт на новий домен. Це дозволить роботу пошукової системи якнайшвидше визначити нове розташування сторінки або ресурсу, зберігши при цьому вже досягнуті в ТОПі позиції.

302 - тимчасове перенаправлення. Цей статус код вказує на те, що редирект – непостійне явище і старий URL буде доступний в майбутньому.

404 – запитувана сторінка немає. Пошукові роботи не враховуватимуть її під час індексації.

410 – сторінку видалено та недоступно. Пошукові системи виключать URL з індексу.

500 – внутрішня помилка сервера. Така ситуація може виникнути, коли ресурс працює некоректно, наприклад неправильно обробляється код сторінки.

503 – сервер тимчасово недоступний. Це означає, що на стороні сервера в даний момент є певна проблема, яка буде вирішена, і ресурс знову функціонуватиме.


Коректне настроювання статус-кодів – це одна з основних умов грамотної індексації ресурсу пошуковими системами. Але виконується воно не на всіх сайтах. Бувають ситуації, коли неробочі сторінки віддають код 200 і навпаки. В результаті пошуковим роботам не вдається проіндексувати їх, що, безумовно, негативно впливає на просування сайту.

Щоб не допустити такого на вашому ресурсі або своєчасно усунути проблему, що виникла, потрібно систематично перевіряти коректність статус-кодів його сторінок.

Рекомендується проводити перевірку статус-кодів усіх сторінок сайту щонайменше 1 раз на 2 місяці.


Некоректне використання редиректів


Редирект є автоматичним перенаправленням відвідувачів з однієї сторінки сайту на іншу. Найчастіше використовуються 301-й та 302-й редиректи.


При використанні 301-го редиректу пошукові роботи переходять на нову сторінку, а стару виключають із індексу. Якщо віддається статус-код 302, ПС розуміє, що сторінка знаходиться за новою адресою тимчасово, тому оновлювати пошукову базу не потрібно.


Намагайтеся уникати автоматичного перенаправлення та використовувати його лише тоді, коли це дійсно необхідно (наприклад, у разі зміни адреси сторінки з технічних причин). Інакше пошукова система може відреагувати вкрай негативно та розцінити це як маніпулювання видачею. В результаті завойовувати високі позиції в ТОПі, а також очікувати на збільшення трафіку на ресурс доведеться дуже довго.

Щоб переконатися в тому, що на вашому сайті редиректи застосовуються лише за потребою і саме там, де це дійсно потрібно, вам слід перевірити їх статус-коди. Якщо ви з'ясуйте, що на певних сторінках вони помилково налаштовані, вам слід це виправити.


Неписьменна обробка помилки 404


Помилка 404 виникає, коли користувач вказує в адресному рядку браузера URL неіснуючої сторінки або переходить на неї за посиланням.


Неправильна обробка 404-ї помилки може спричинити безліч небажаних наслідків, які негативно позначаться на просуванні ресурсу: дублювання сторінок сайту, індексація непотрібних і неробочих сторінок і т. д. Все це може призвести до некоректного ранжування.

Щоб не створювати проблем як для пошукових систем, так і користувачів, необхідно виконувати наступні рекомендації:


1. Налаштувати сервер так, щоб неробочі сторінки ресурсу віддавали статус-код 404. Так пошукові роботи братимуть до уваги лише сторінки, що містять важливу та корисну інформацію.

2. Оформити сторінку 404 помилки так, щоб відвідувачі спробували знайти цікаву для них інформацію ще раз. Продумайте її дизайн та зміст. Зверніть увагу, текст на сторінці обов'язково повинен повідомляти, що адресу, що запитується, не знайдено, але користувач може перейти на головну сторінку або скористатися карткою сайту. Пам'ятайте, що цікавіша та інформативніша буде сторінка з помилкою 404, тим вища ймовірність, що відвідувачі захочуть продовжити роботу на ресурсі.


Помилки у налаштуванні дзеркал


Дзеркало, з погляду пошукових алгоритмів, називають копію сайту з іншим ім'ям домену. Найпростіший приклад: ресурс з www та без www. Вони можуть створюватися, наприклад, для запобігання перевантаженості основного ресурсу. Головне дзеркало сайту необхідно вказувати, щоб унеможливити дублі з результатів видачі.


Роботи не індексують неосновне дзеркало ресурсу, тому його просування неможливе. Якщо вказати його неправильно, станеться некоректна склеювання і сторінки сайту не зможуть зайняти високі позиції у результатах видачі ПС.


Склейка – «об'єднання» всіх дзеркал сайту для пошукових систем, у процесі якого виділяється головне, яке потрібно індексувати.


Перевірити коректність налаштування дзеркал на вашому ресурсі можна кількома способами:


1. За допомогою спеціалізованих сервісів. Наприклад, XSEO, SEOBudget.

2. За допомогою пошукової системи. Для цього введіть у пошуковий рядок url: www.site.ua | url:site.ua, де замість site.ua вкажіть назву домену вашого сайту. Потім натисніть "Знайти".

Якщо при наведенні курсору миші на адреси сайтів з результатів видачі в лівому нижньому куті браузера ви бачите лише один варіант (з www або без www), дзеркала налаштовані правильно. В іншому випадку необхідні технічні доопрацювання.


Дублі сторінок/контенту


Дублі - це повністю або частково збігаються сторінки одного ресурсу.


Серед них виділяють повні (чіткі) дублі – сторінки, зміст яких є повністю ідентичним, різні лише їх URL. А також нечіткі дублі – сторінки, більшість інформації яких збігаються (їх URL також неоднакові).

Існує безліч причин виникнення таких перешкод: недосконалість CMS сайту, технічні недоробки, навмисне створення спеціальних потреб компанії (версії для друку) і т.д.

CMS (система управління вмістом) – програмне забезпечення, призначене для створення організації структури, редагування сайту та управління ним.

Незалежно від характеру появи, наявність дублів сторінок, що просуваються, може призвести до їх виключення з індексу пошукових систем, що негативно позначиться на успішності просування сайту. Тому такі проблеми необхідно виявляти та проводити необхідні роботи щодо їх усунення.


Після того, як усі проблемні ділянки на вашому ресурсі виявлені, необхідно провести їх доопрацювання та закрити дублі від індексації. Зробити це можна так:


• У файлі robots.txt додати директиву Disallow із зазначенням дублів сторінок.

• У метатегах дублів прописувати <meta name="robots"content="noindex, nofollow"/>. Це заборонить пошуковій роботі індексувати дані цих сторінок і переходити за посиланнями з них.

• Використовувати тег <link rel="canonical" href="адреса оригіналу сторінки сайту"/> на всіх сторінках, що автоматично генеруються.


Побиті посилання


Биті посилання – це посилання, які ведуть на неіснуючу сторінку сайту, документ чи зображення. Наявність битих посилань на ресурсі – це прояв прояву байдужості до його відвідувачам, а й джерело проблем пошукових роботів. Користувачі переходять на неробочі сторінки та залишають сайт, не отримавши бажаної інформації, а пошукові системи можуть некоректно проіндексувати вміст ресурсу, внаслідок чого його позиції помітно знижуються.


Серед причин появи битих посилань на ресурсі найпоширеніші такі:


1. Видалення старих сторінок. У розділах сайту можуть бути посилання на елементи, які вже видалені з нього (окремі сторінки, прайс-листи, PDF-документи і т. д.). При переході на них користувачам буде відображатися неіснуюча сторінка.

2. Зміни на зовнішніх веб-сайтах. Наприклад, ви розмістили на ресурсі посилання на зовнішній сайт, а через деякий час він змінив структуру, доменне ім'я або видалив сторінку, на яку ви посилалися.

3. Автоматичне оновлення даних. Якщо на вашому сайті налаштовано автоматичне оновлення даних із зовнішнього джерела (наприклад, синхронізація товарів в інтернет-магазині зі складським програмним забезпеченням у 1С), вам слід стежити за актуальністю посилань особливо уважно. Короткочасний збій в алгоритмі оновлення може призвести до масовим негативним наслідків.

4. Редизайн та переробка сайту. При коригуванні ресурсу часто виникає необхідність перенесення контенту зі старого сайту на новий. Навіть виявляючи увагу і терпіння у цьому питанні, можна не помітити посилання на сторінку, яка більше не існує.


Усунути причини виникнення битих посилань практично неможливо, але перевіряти ресурс на наявність битих посилань і своєчасно їх усувати необхідно.


Щоб вирішити проблему битих посилань на ресурсі, виконайте поради:


1. Відновіть вміст на неробочих сторінках.

2. Якщо неможливо виконати перше правило, видаліть посилання на ці сторінки.

3. Якщо в адресі сторінки виникла помилка, змініть її на коректну.


Зовнішні посилання, відкриті для індексації


Зовнішні посилання розміщуються на сторінках сайту та ведуть на сторонній (зовнішній) ресурс.


Цей елемент має велике значення у ранжируванні. Статична вага зі сторінок сайту, на яких розміщено такі посилання, переходить на інший ресурс. Чим їх більше, тим гірше позначиться на просуванні. Тому зовнішні посилання необхідно відстежувати та своєчасно закривати від індексації.


Статична вага – це умовна величина, яка характеризує «значимість» сторінки сайту.


Виявити на сайті незакриті зовнішні посилання можна за допомогою спеціальних програм. Наприклад, можна використовувати сервіс Xenu's Link Sleuth або встановити плагін RDS Bar для браузера.


Щоб закрити від індексації зовнішні посилання, необхідно прописати атрибут rel="nofollow", який забороняє роботам пошукових систем переходити за конкретним посиланням. В результаті вага зі сторінки вашого ресурсу не передаватиметься на інший сайт.


Неписьменно складений файл robots.txt


Robots.txt – це текстовий файл, розташований у кореневій директорії сайту. Він може забороняти або дозволяти пошуковому роботі переміщатися по ресурсу, індексувати його вміст та отримувати доступ до релевантної інформації, тому його коректне налаштування є дуже важливим.


Щоб створити цей файл, виконайте такі дії:


1. У текстовому редакторі Блокнот або WordPad створіть файл з ім'ям robots.txt і заповніть його.

2. Завантажте готовий файл у кореневий каталог вашого сайту.


Перевірити наявність файлу на вашому ресурсі можна, набравши в адресному рядку браузера URL формату www.site.ua/robots.txt, де замість www.site.ua потрібно вказати назву вашого домену.

Щоб вказати пошуковому роботу, яку інформацію на ресурсі слід індексувати, а яку ні, використовуються директиви Disallow: / (закриття) і Allow: / (відкриття).

Якщо ви виявили, що деякі важливі елементи сайту недоступні для відвідувачів та пошукових роботів, необхідно виправити це.


Помилки файлу sitemap.xml


Sitemap.xml – це файл формату XML, який містить посилання на всі сторінки сайту, які потрібно проіндексувати пошуковим системам. Він необхідний для того, щоб показати роботу, як часто це слід робити і які з цих сторінок найбільш важливі.


Створити файл sitemap.xml можна за допомогою різних автоматизованих сервісів, наприклад, XML-Sitemaps.com (до 500 сторінок), SitemapGenerator (до 2000 сторінок для зареєстрованих користувачів), MySitemapGenerator (до 500 сторінок) тощо Для великих ресурсів ( більше 10 000 сторінок), як правило, пишеться спеціальний програмний модуль, що автоматично генерує XML-карту.

Наявність помилок у sitemap.xml може призвести до неграмотної індексації сторінок вашого сайту. І тут ресурси просування можуть бути витрачені даремно.


Інші технічні перешкоди на сайті


Крім основних проблем, які часто зустрічаються при оптимізації неякісних ресурсів, існує ряд інших перешкод, які також можуть негативно позначитися на просуванні сайту. Стисло розглянемо кожну з них.


Flash


Flash-технологія використовується для виробництва анімованих сайтів або їх різних елементів (банерів, навігації, реклами, що спливає). За допомогою неї можна створювати яскраві ресурси з привабливими інтерактивними елементами. Однак пошукові системи індексують їх із значними обмеженнями, що створює серйозні перешкоди для просування.

Пошукові роботи не розпізнають flash-елементи, тому весь контент або його частина перестає відображатись, з'являються проблеми з навігацією. Щоб це перевірити, відключіть flash у браузері та перегляньте його сторінки.


JavaScript


Багато ресурсів працюють з використанням технології JavaScript, яка також може створювати серйозні проблеми для просування ресурсу. При відключенні сайту в браузері сайт починає працювати некоректно, немає можливості читати текст, користуватися меню і т.д.


Frame


Frame (фрейм) – це технологія, коли весь контент чи окремі блоки на сторінці підвантажуються із зовнішніх файлів. Вони нагадують осередки таблиці та поділяють сторінку сайту на окремі незалежні частини, розташовані на одному екрані.


Використання кадрів може призвести до того, що інформація на ресурсі (текст, каталог товарів) не буде врахована пошуковими роботами під час індексації. Особливо критично, якщо з їхньою допомогою розміщується основний контент сторінки.


Щоб переконатися у використанні даної технології на сайті, відкрийте вихідний код сторінки (Ctrl+U) та перевірте його на наявність тегів <frame>, <frameset>, <iframe>, <noframes>.


Щоб вирішити проблему з кадрами, потрібно внести корективи до верстки сторінок сайту та замінити їх на HTML-теги форматування таблиць, які, як правило, ранжуються пошуковими роботами значно вищими. Якщо ви не маєте необхідних компетенцій щодо цього питання, ви можете скористатися допомогою професіоналів.


Неналаштований Last-Modified


Last-Modified – це параметр, який вказує на дату останньої зміни сторінки. Його мета – показати роботу пошукової системи, наскільки свіжий контент розміщений на ній і, відповідно, чи потрібна переіндексація. Його некоректне настроювання може значно збільшити терміни підвищення видимості сайту в ПС. Щоб цього не допустити, необхідно додати актуальну інформацію про дату останньої модифікації сторінок.


Відсутність картки сайту


Карта сайту – сторінка, де у вигляді деревоподібної структури представлений повний каталог всіх розділів ресурсу. З її допомогою користувачі зможуть досить швидко знайти інформацію, що їх цікавить, а пошукові роботи - більш оперативно індексувати сторінки ресурсу. Якщо цього елемента на ресурсі не буде, індексація сайту може бути складною.


У структурі карти сайту мають бути всі значущі сторінки ресурсу. Однак, якщо їх занадто багато (наприклад, у випадку інтернет-магазинів), перевантажувати її надмірною кількістю посилань не рекомендується. Інакше користувач зможе швидко знайти те, що йому потрібно.


Афіліати


Крім перелічених вище перешкод та помилок, які перешкоджають ефективної роботі сайту, існує ще одна серйозна проблема, до вирішення якої потрібно підходити з усією відповідальністю – наявність у нього афіліату. Афіліатами називають ресурси, що найчастіше належать одній компанії, зміст та розділи яких частково або повністю збігаються. Наприклад, однаковий каталог продукції, що перетинається за кількома напрямками. Як правило, афіліати створюються компаніями, щоб зайняти більшість позицій першої сторінки результатів пошуку. На такі дії пошукові системи реагують вкрай негативно та застосовують до сайтів санкції, наприклад, афіліат-фільтр.


Аффилиат-фильтр різко знижує позиції всіх сайтів групи аффилиатов крім найрелевантнішого.

Якщо ваш сайт визнаний афіліатом, всі роботи з його оптимізації та просування, найімовірніше, пройдуть безрезультатно!


Існує безліч факторів, за якими ресурс може бути визнаний афіліатом:

• однакові контактні дані на сайтах (телефон, електронна пошта, назва компанії);

• схожість доменних імен, назв компаній, логотипів;

• схожість дизайну чи структури сайту;

• скопійована чи схожа інформація на різних сайтах;

• однаковий каталог послуг чи товарів;

• один прайс-лист;

• один хостинг;

• наявність комбінованих даних із різних ресурсів (наприклад, адреса представлена одному ресурсі, а телефон – іншому);

• переадресація дзвінка з різних номерів на одну компанію.


Дотримуйтесь таких правил:


1. Закривайте сайти-афіліати від індексації або робіть їх неголовними дзеркалами ресурсу, який ви просуваєте.

2. Скоригуйте один із сайтів так, щоб напрями їхньої діяльності та запити для просування не збігалися. Наприклад, компанія має 2 ресурси. Вони обидва спрямовані на продаж побутової техніки та є афіліатами. Зробіть так, щоб на одному ресурсі продавалася техніка для кухні, а на іншому – усі прилади з інших категорій, та виберіть для їхнього просування різні пошукові фрази.

Технічна оптимізація


Дописати коментар

0 Коментарі