– Прописывание Sitemap после каждого User-agent

Это делать не нужно. Один sitemap должен быть указан один раз в любом месте файла robots. txt

– Закрыть папки wp-content, wp-includes, cache, plugins, themes

Это устаревшие требования. Для Яндекса и Google лучше будет их вообще не закрывать. Или закрывать «по-умному», как это описано выше.

– Закрывать страницы тегов и категорий

Если ваш сайт действительно имеет такую структуру, что на этих страницах контент дублируется и в них нет особой ценности, то лучше закрыть. Однако нередко продвижение ресурса осуществляется в том числе за счет страниц категорий и тегирования. В этом случае можно потерять часть трафика

– Закрывать от индексации страницы пагинации /page/

Это делать не нужно. Для таких страниц настраивается тег rel = «canonical», таким образом, такие страницы тоже посещаются роботом и на них учитываются расположенные товары/статьи, а также учитывается внутренняя ссылочная масса.

– Прописать Crawl-Delay

Модное правило. Однако его нужно указывать только тогда, когда действительно есть необходимость ограничить посещение роботами вашего сайта. Если сайт небольшой и посещения не создают значительной нагрузки на сервер, то ограничивать время «чтобы было» будет не самой разумной затеей.

– Ляпы

Некоторые правила можно отнести только к категории «блогер не подумал». Например: Disallow: /20 – по такому правилу не только закроете все архивы, но и заодно все статьи о 20 способах или 200 советах, как сделать мир лучше


Александр Борисов в своих интенсивах https://isif-life.com/school/free-kurs рекомендует более короткий файл robots. txt

User-agent: *

Disallow: /wp-

Disallow: /tag/

Disallow: */feed

Disallow: */trackback

Disallow: */page

Disallow: /author/*

Disallow: /201*

Disallow: /template.html

Disallow: /readme.html

Disallow: *?replytocom

Disallow: *?*

Allow: */uploads

Allow: *.js

Allow: *.css

Allow: *.png

Allow: *.gif


Host: урл_сайта

Sitemap: http://урл_сайта/sitemap.xml


В заключение дадим ещё одну ссылку правильной настройки файла robots. txt с возможностью скачать вариант настроенного рабочего файла:

https://wordpress-book.ru/prodvizhenie/pravilnyj-robots-txt-dlya-wordpress/

автор: Роман Ваховский, обновлено: Апрель 14, 2018

Как учесть требования поисковиков?

https://texterra.ru/blog/kak-sozdat-sayt-na-wordpress-polnoe-rukovodstvo-dlya-novichkov.html

С помощью SEO-плагинов вы можете обеспечить соответствие сайта на WordPress техническим требованиям поисковых систем. В частности, дополнительные модули решают следующие задачи:

– Создание и обновление карты сайта

– Канонизация URL

– Оптимизация title страниц

– Автоматическая генерация мета-данных страниц

– Блокирование индексации дублированного контента

– Создание микроразметки страниц

Чтобы решить эти задачи, вы должны установить по одному SEO-плагину из трёх групп:

– плагины для создания карты сайта,

– плагины для технической оптимизации ресурса и

– плагины для создания микроразметки.

– Создание карты сайта. Используйте один из следующих плагинов:

– Google XML Sitemaps

– Google Sitemap

– Simple WP Sitemap

– WP Sitemap Page

Установите и активируйте выбранный плагин, например, Google XML Sitemap. Для настройки плагина перейдите в меню «Настройки – XML-Sitemap».



Переходим в меню настройки плагина

Начинающим вебмастерам лучше оставить настройки по умолчанию. После активации плагин создал карту сайта, добавил её адрес в файл robots. txt и приготовился уведомлять поисковые системы об обновлениях ресурса.



Карта сайта создана.

Если вы считаете себя опытным вебмастером, можете изменить настройки плагина. В разделе «Дополнительные страницы» вы можете вручную включить в карту сайта URL, которые не были включены в неё автоматически. В разделе «Приоритет статьи» определите способ вычисления приоритетности индексирования контента. В разделах «Изменить частоты» и «Приоритеты» вы можете рекомендовать поисковым роботам наиболее приоритетные по вашему мнению типы контента.