seoeffector, в инструментах есть проверка файла роботс + можно посмотреть через "посмотреть как гугле бот". Файл роботс обновляется 2 раза в сутки у гугла.
Проверьте наличие BOM в файле robots. Скиньте ваш robots на компьютер и откройте его в любом HEX редакторе. Если в правом столбике (где отображается текст файла) текст начинается с трех непонятных символов (что-то вроде п»ї) то просто удалите их и сохраните файл. Помниться у меня из-за них, гугл вообще не понимал ни одной строчки в robot.txt
validcode, точно сказать не могу, но факт остается фактом. Когда сохраняешь что-либо в формате utf-8 на win7 (на ХР такого не было), то BOM 100% добавиться.
Robots все верно у меня также почти.. посмотрите как гугл бот. и вам он скажет открыто или нет.. гугл постоянно индексирует сайты... ночью может и проиндексировать
-HostPro.ua_ - Лучший хостинг. Пожизненная скидка -10% с промокодом, на хостинг P235603-39483, на Cервера P235603-64089
НЕ зная структуры URL внутренних страниц сайта на Ваш вопрос ответить невозможно! К примеру: WP по умолчанию внутренние страницы сайта имеют структуру /?p=номер поста У вас же в фале robots.txt для таких страницы запрещены к индексации: Disallow: /*?*
Кроме того нужно уточнить для какого робота закрыт доступ к страницам сайта. У гугла их несколько: например робот для поисковой выдачи, робот для медийной рекламы и т.п. Для поискового робота нужно закрывать доступ к страницам с дублированным контентом, для медийного робота нужно открывать к индексации все страницы, что бы на них могла показываться ревалентная реклама.
бывали случаи, что хостеры из за подозрения на дос атаки блокировали доступ роботам поисковых систем
Так что одного фала robots.txt не достаточно что бы поставить диагнох по вашему сайту.