Ну это да, это правильно подметил =) Я просто до этого никогда не заморачивался с роботсом, но теперь задумался о том чтобы позакрывать не желаемые страницы от гугла, чисто для безопасности.
Он у каждой страницы позволяет отключить фоллов-ноуфоллов, индекс-ноиндекс, и затем вставляет метатэги вида <meta name="robots" content="noindex,follow,noarchive" />
Он у каждой страницы позволяет отключить фоллов-ноуфоллов, индекс-ноиндекс, и затем вставляет метатэги вида <meta name="robots" content="noindex,follow,noarchive" />
по-моему легче использовать All in Seo pack, он позволяет вставлять различные метатеги, менять титлы, description, keywords для отдельных страниц.
По RSS потокам и их закрытию приведу ответ из саппорта яндекс-вебмастер ответ: RSS-документы не индексирует основной робот, но индексирует робот, индексирующий блоги. Если Вы закроете страницы, их не сможет проиндексировать ни один робот Яндекса. т.е. не стоит закрывать фиды от роботов.