Xwab
Форумыnavigate_nextSEO

Яндекс: новые правила обработки robots.txt
Сообщения
GraF

Добрый день!

Уведомляем вас об изменениях в обработке директивы 'Allow' файла robots.txt, с помощью которого вы можете разрешить или запретить индексирование сайта поисковым роботом Яндекса.

По новым правилам, если страница сайта попадает под действие нескольких директив 'Allow' и/или 'Disallow', то будет применяться директива с наибольшей длиной префикса URL. При определении длины префикса спецсимвол '*' не учитывается.

Если на вашем сайте в robots.txt совместно используются директивы 'Allow' и 'Disallow', пожалуйста, проверьте их на соответствие новым стандартам. В этом вам поможет наша форма проверки robots.txt.

11 Мар 2012, 16:26
Weiseer

Я уже писал об этом в соответствующей теме.

11 Мар 2012, 16:43
Ответить на тему