Robots.txt для MODx Revolution

preview_player
Показать описание
При оптимизации многих сайтов на modx часто встает вопрос с запретом индексации тех или иных страниц.
Чтобы облегчить эту задачу, можно создать динамический файл robots txt для modx, содержимое которого будет формироваться автоматически. От пользователя потребуется только лишь установка определенных галочек в настройках ресурса.
Рекомендации по теме
Комментарии
Автор

Спасибо за урок, интересная идея, обязательно нужно будет попробовать при разработке сайтов.

vityalobanov
Автор

В чанк head, чуть ниже меты:

{if $_modx->resource.searchable}
<meta name="robots" content="index">
{else}
<meta name="robots" content="noindex">
{/if}

MaximusKilgore
Автор

Хорошая идея. Единственно на что хочу обратить внимание, что robots.txt не сводится только к команде disallow. Это и директивы Allow и задание главного зеркала сайта и ссылки на файлы карт сайта. Также этот файл должен учитывать не только страницы (в случае MODX - ресурсы) сайта, но и файловую систему.

АлександрМельник-чь
Автор

User-agent: *


[[pdoResources?
&where='("searchable":"0")'
&limit='0'
&depth='0'
&parents='0'
]]

не работает код

KolyanichNZ
Автор

добрый день.подскажите у меня почему то яндекс находит ошибку в robots.txt - Disallow: none Правило начинается не с символа '/' и не с символа '*'
написанный robots.txt -
User-agent: *

[[pdoResources?
&where= `{"searchable":"0"} `
&limit=`0`
&depth=`0`
&parents=`0`
]]

ПроизводственнаякомпанияМодуль
Автор

После массового взлома сайтов на модх больше с ним дел иметь не буду :) никаких преимуществ даже перед вордпресс

ЯрославЛ-кщ
join shbcf.ru