Разный robots.txt в разных контекстах
Здравствуйте!
Сделал сайт на поддоменах, есть основной сайт — www.site.ru, есть test.site.ru сайт, есть spb.site.ru
Нужно закрыть от индексирования соответственно test.site.ru и spb.site.ru
При попытке создать разные ресурсы в разных контекстах с именем robots.txt получаю ошибку о дублировании URL, но оно и понятно.
Конструкция в виде плагина тоже не срабатывает:
Сделал сайт на поддоменах, есть основной сайт — www.site.ru, есть test.site.ru сайт, есть spb.site.ru
Нужно закрыть от индексирования соответственно test.site.ru и spb.site.ru
При попытке создать разные ресурсы в разных контекстах с именем robots.txt получаю ошибку о дублировании URL, но оно и понятно.
Конструкция в виде плагина тоже не срабатывает:
$host = $_SERVER['HTTP_HOST'];
$alias = $modx->context->getOption('request_param_alias', 'q');
$request = $_REQUEST[$alias];
$tmp = explode('/', $request);
if ($host == 'spb.site.ru'){
if ($tmp[0]=='robots.txt'){
$modx->sendForward(1521);
}
}
Что можно сделать? Несколько часов бьюсь с этим.
Поблагодарить автора
Отправить деньги
Комментарии: 3
Отключите в настройках проверку на дублирование uri в контекстах и переключайте контекст в плагине в зависимости от поддомена.
Вот когда я отключал проверку на дублирование, ничего не работало. Видимо, где-то я что-то делал не так. Сейчас отключил дублирование, отключил плагин, все работает. Спасибо!
Возможно ты кэш не обновлял после отключения. А ещё там где обновление кэша можно было и перегенерировать URI ресурсов.
Авторизуйтесь или зарегистрируйтесь, чтобы оставлять комментарии.