Как работать с robots.txt? Просто о сложном

preview_player
Показать описание


В видео мы расскажем о работе с основными директивами:
- «User-agent:»;
- «Disallow:»;
- «Allow:»;
- «Host:»;
- «Sitemap:».

___________________

-~-~~-~~~-~~-~-
Обязательно посмотрите: "Как правильно настроить и использовать UTM метки?"
-~-~~-~~~-~~-~-
Рекомендации по теме
Комментарии
Автор

вот почему нельзя так просто обо всем рассказать? круто, спасибо!

ИринаМамаева-зу
Автор

Спасибо, очень просто и понятно рассказано.)

kazimcho
Автор

Как быть, если сайт уже полностью в индексе, а движка, который бы генерировал этот файл автоматически, нет? Или можно тогда не думать о нем? И как быть, если структура сайта не меняется, а лишь добавляются статьи в конкретных разделах, к примеру, новости и обзоры. Но на сайте, повторюсь, нет движка, который бы генерировал этот файл автоматически. Спасибо.

andreykarolik
Автор

Как работать с robots.txt в мультивендорном интернет-магазине???

VetDeMarco
Автор

В host указывать с https? Адрес сайта, иди без https стоит?

SvyatoslavGusev
Автор

Было бы не плохо показывать на примере

nikolaydd
Автор

спасибо за Вашу работу!

подскажите пожалуйста, у меня много дублей страниц и я хотел бы их скрыть от выдачи в пс, как мне лучше поступить? как эти страницы необходимо добавлять в robots.txt ?

ИгорьКравченко-тъ
Автор

ссылки на другие видео в конце ролика не кликабельные

AntonioBenderas
Автор

Одна болталогия без каких либо примеров. не советую время тратить

СправочниквсехсайтовзнакомствР