Robots.txt – составляем за 7 минут! Как убрать некачественные страницы в Яндекс с помощью robots.txt

preview_player
Показать описание

0:00 – Вступление.

2:02 – Закрываем страницы добавления в корзину (в интернет-магазине).

2:27 – Пагинация (это порядковая нумерация страниц). Закрываем ненужные страницы в пагинации в разделе каталога.

4:18 – Закрываем другие языки и автоперевод (некачественный перевод автотранслитером).

5:30 – Закрытие системных страниц для CMS.

5:50 – Где находятся некачественные страницы в Яндекс.вебмастере.
Рекомендации по теме
Комментарии
Автор

Честно, смотрел на перемотке 1.5, очень сильно растянул видос, а так годно!

flash_gamerr
Автор

Подскажите, пожалуйста, хорошие курсы по обучению SEO-специалистов, с нуля.

СаняСаня-км
Автор

Не совсем понятно, как все-таки закрывать get-параметры.
Допустим у меня есть параметры view_mode и solution_id. Бывает так, что они могут идти в комбинации через символ &. Как подобные комбинации закрыть в robots? - для примера

TonyMontana-woqt