Robots.txt: как создать файл robots txt для сайта. Правильные закрытие страниц от индексации

preview_player
Показать описание
Я решил снять серию видео на тему: как провести технический и SEO аудит сайта. Это 4 ролик из 14, в которых я намерен рассказать о основных процессах в аудите сайта. Тема данного ролика: Как создать файл robots txt для сайта. Как правильно закрывать страницы от индексации на сайте.

Тайм-коды:
00:00 Вступительное слово
18:05 Как дополнительно запретить индексацию через канонические url и тег meta

😉😉😉 Если понравилось видео, ставьте лайк, подписывайтесь на канал, здесь Ожгибесов рассказывает про полезное в SEO!

Telegram: @AOzhgibesov
Рекомендации по теме
Комментарии
Автор

Интересна еще такая тема: как не передавать внутренний PR таким страница как "контакты", "доставка" и т.д.

evgeniyvdovin
Автор

Отличные ролики👍 Сегментация задач по сео! Ну и как вишня на тортике накрутка пф😂😂😂 внимательно следим за этой историей👍

ОлегБуряк-чб
Автор

Есть ли аналог spider'а на облаке или MacOS?

alexeyruban
Автор

Так каноникл - это рекомендация, а не правило. Тем более на WP у всех одни и те же дыры. Можно шаблонный robots показать ребятам и заставить их Clearfy ставить. А на запрет tag и author в роботсе Гугл будет ругаться 100%. Их лучше через мету закрывать, если есть такая нужда. Короче говоря, снова путаница, как в 95% статей на эту тему)

ВладСветоносец
Автор

Давно так никто не делает, одну для яндекса, другую для фигандекса

dobzo
Автор

Тема не раскрыта.
Чувствуется поверхностное понимание проблемы управления процессом краулинга/индексирования, к которой относятся robots.txt, noindex, nofollow, редирект на странице, редирект в headers, 301, 302 редирект. Когда и для чего применять, а когда точно не применять.
Закрывать от индексации страницу с тегом rel=canonical на каноничную страницу? 🤦‍♂️
Не озвучены возможные подводные камни и последствия непродуманного применения noindex, nofollow.

kirillbelousov