зміст:

Отримати безкоштовну консультацію від фахівця з вашого проекту

Секрети мови robots.txt

Файл robots.txt — важливий інструмент SEO-оптимізації сайту. У його завдання входить налагодження контакту з ботами пошукових систем і інформування їх про те, в які папки їм потрібно заглядати для сканування даних, а які потрібно обходити стороною.

Відразу слід сказати, що немає ідеального файлу robots.txt для WordPress, який підходив би всім без винятку сайтам на цій CMS. Але є базові речі, які можна коригувати в залежності від того, які сторінки сайту ви хочете відкрити або закрити для пошукових систем.


Що ж необхідно вказувати в robots.txt і як створити такий файл? Для початку слід зрозуміти, які команди в ньому міститися і як взагалі він « говорить » з ботами пошукових систем.

Основними складовими елементами файлу robots для WordPress є директиви і змінні дані, що вказують на файл ( групу файлів ). 

Види директив і особливості їх заповнення

User-agent — називає ім'я пошукового робота, до якого звернені команди: Googlebot ( Googlebot-news, Googlebot-image і ін. ), Yandexbot ( YandexImages, YandexVideo і ін. ), Bing, Slurp, Mail. Для звернення до всіх ботів використовується символ * ( User-agent: *). Це головна директива файлу robots для WordPress, вона повинна знаходиться на самому початку файлу.


Allow і Disallow — відкриває і, відповідно, закриває доступ до файлів і сторінок сайту. Варто відразу обмовитися, що команди в robots.txt не примушують пошукових роботів до виконання, вони швидше настійно рекомендують. При цьому боти в праві вести себе так, як їм заманеться, і можуть сканувати навіть закриті від їхніх очей файли.


Для спілкування з ботами в файлі robots.txt застосовуються спеціальні оператори:

  • * — будь-які символи до і після змінних даних. 
  • $ — як точка в кінці речення, цей символ показує, що стоїть перед ним знак є останнім в адресному рядку;
  • # — позначає, що далі йдуть коментарі автора і вони не враховуються ПС;
  • / — показує до яких розділів і сторінок відноситься вказівка.

Sitemap — вказує шлях до XML-file карти сайту. Зазвичай вказується в кінці файлу robots.txt. Стандартний вид посилання на карту сайту – https://domen.com/sitemap.xml, де domen.com – доменне ім'я Вашого сайту на WordPress. Sitemap.xml — назва файлу карти сайту.


Host — раніше використовувався пошуковими роботами Яндекса для визначення головного дзеркала сайту. Зараз ця директива втратила свою актуальність і вказувати її роботсе не потрібно. Роботами Google host ніколи і не враховувався.


Crawl-delay — задає часовий інтервал між процесами сканування. Її враховують Яндекс, Mail.ru, Bing і Yahoo! За розрахункову одиницю прийнята секунда, вона може позначатися цілим числом або у вигляді десяткового дробу з точкою в якості роздільника: 1.0, 0.7 і т. Д. 


Clean-param — показує ботам Яндекса динамічні адреси зі знаком питання, які необхідно приховати, щоб уникнути дублювання контенту. 

Як зробити Robots для Вордпресс: покрокова інструкція заповнення

Якщо ви хочете вказати різні умови для роботів Яндекса і Google, тоді слід прописувати директиви з командами для кожного з цих пошукових систем окремо. Якщо ж таку мету не переслідуєте, можете використовувати загальні правила, це означає, що в поле User-agent потрібно вказувати *.

Правильный robots.txt для wordpress

Алгоритм написання правильного документа для WordPress robots.txt:

  • Вказуємо адресата команд ( User-agent )
  • Закриваємо від індексації ( Disallow ):
    - файли адмінки;
    - особисті кабінети, форми реєстрації та авторизації;
    - інструменти роботи з замовленнями ( кошик, форми для заповнення даних і т. Д. );
    - підходи до інтерактивних призначеним для користувача інтерфейсів ;
    - папку cgi;
    - дані по функціоналу пошуку;
    - службові сторінки;
    дублюючі сторінки і розділи;
    - дані про параметри фільтрації, порівняння і правил сортування;
    UTM-мітки;
    - плагіни і графіку тим оформлення.
  • Відкриваємо ( Allow ) ті файли і документи, індексація яких необхідна, але вони знаходяться всередині вже закритих категорій, наприклад, зображення і JavaScript
  • Вводимо дані карти сайту ( Sitemap )
  • Якщо необхідно, прописуємо Crawl-Delay
  • Якщо необхідно, прописуємо Clean-Param ( враховується тільки для Яндекс-ботів )
  • Через сервіси Google і Яндекс перевіряємо правильність заповнення robots.txt


Начебто нічого складного немає, але досить часто виникає багато питань щодо того, які файли і папки варто закривати від сканування, а які бажано індексувати. В рамках онлайн-курсу SEO Ривок ми детально зупиняємося на цій темі, а в якості бонусу наші фахівці підкажуть, як у вашому випадку краще скласти файл robots.txt для вашого сайту на WordPress і перевірять його заповнення.

Отримати безкоштовну консультацію від фахівця з вашого проекту

Отримати безкоштовну консультацію від фахівця з вашого проекту

Як створити файл robots.txt в ВордПресс

Є кілька способів створити robots.txt для WordPress - вручну і за допомогою плагінів. Розглянемо їх докладніше.

Створення документа robots.txt за допомогою текстових редакторів

Для написання robots.txt застосуємо будь-який стандартний текстовий редактор, підійде той же Блокнот. Після того, як всі дані будуть внесені в документ, зберігаємо його на комп'ютері під ім'ям robots.txt. Залишилося помістити його на сервер WordPress.

Заходимо на FTP-сервер сайту, знаходимо папку public_html головного каталогу і перетягуємо в неї свій файл robots.txt. Все, пошукові боти бачать рекомендації для індексації.

Как добавить robots.txt в WordPress

Створення robots.txt за допомогою плагіна для ВордПресс

Розглянемо відразу два найбільш популярних плагіна для WP — Yoast SEO і All in One SEO Pack

  1. Yoast SEO
    Після установки і активації плагіна переходимо в розділ Інструменти вкладки SEO і вибираємо Редактор файлів, далі натискаємо Створити файл robots.txt. На сторінці, що відкрилася можна складати список команд для ботів пошукових систем або редагувати існуючі дані. Після перевірки правильності заповнення зберігаємо зміни.
     
  2. All in One SEO Pack
    По завершенні установки плагіна All in One для WordPress з метою створення файлу robots.txt заходимо в розділ Управління модулями, вибираємо іконку robots.txt і тиснемо Activate. У відкрилася формі вводимо додаткові правила або видаляємо ( робимо неактивними ) раніше додані команди. Редактор самостійно розставляє директорії по місцях, вводити назву директорій не потрібно.

    Відмітна особливість All in One SEO Pack — настроюється блокування шкідливих ботів, які перевантажують сайт, не приносячи вам ніякої користі.

висновок

Незалежно від обраного способу створення файлу robots.txt, якщо все директорії і команди внесені коректно, пошукові боти бачитимуть його і в більшості випадків слідувати зазначеним рекомендаціям. Після завантаження файлу рекомендуємо перевірити його за допомогою сервісів Яндекс.Вебмастер і Google Search Console. Зверніть увагу, при перевірці в Google будуть вказані помилки в специфічних командах для Яндекса або інших систем, які він не розуміємо. Не звертайте на це уваги.


Тепер ви знаєте, як зробити файл robots.txt для ВордПресс і зможете направити стопи пошукових роботів в потрібному вам напрямку, полегшивши навантаження на сайт і оптимізувавши процес індексації даних на сторінках вашого сайту.