Дело так было. Числа 8-го февраля решил что можно открывать публичный доступ к своему сайту-блогу. Пошел в ГуглВебМастер(ГВМ), все заполнил, указал где Sitemap сайта находится, все как положено. Гугл мне: "про Sitemap понял, ждите - бот-индексатор к вам скоро придет". Пришел. В принципе проиндексировал. НО! Иду теперь в ГВМ в Ошибки сканирования.Из ее текста следует, что 8 ссылок указанных в Sitemap все-таки не были проиндексированы. Причина у всех одна:Роботс у меня, как положено, есть, это да. Но, допустим, копирую я со все той же страницы Ошибки сканирования первую из 8-ми проблемных ссылок. И иду на другую ГВМ страницу, Доступ для сканера. Там вижу чтоURL, запрещенный файлом robots.txtrobots.txt был загружен 3 часа назад, ниже в полеСодержание его, собственно, содержание. Которое НЕ МЕНЯЛОСЬ с момента открытия сайта. Еще более ниже в полеУкажите URL-адреса и роботов User Agent для проверки ввожу проблемную ссылку. Проверить -> Разрешено. И так по всем 8-ми ссылкам. Никаких мета-тегов влияющих на индексацию (noindex...) в HTML-коде целевых страниц на которые указывают эти ссылки тоже нет.
И как все это объясняется?Может кто "пролить свет"?
- 13.02.2012 13:12
- Регистрация: 08.01.2012
- Сообщений: 129
- Репутация: 15
- 13.02.2012 16:47
Выкладывайте ссылки и содержание роботса. Без этого никто не сможет помочь...
- 14.02.2012 02:33
SamMan, подожди немного или пытайся связаться с поддержкой :) никто здесь никакой "свет" не "прольет", если ты говоришь, что так как оно есть :)
- 14.02.2012 06:12
Есть такое, возможно, что это временные глюки, связанные с обновлениями алгоритмов или ещё что... Но у меня Главная страница одного из сайтов так же не индексируется, хотя открыта с 9-го февраля, зато внутренние начали индексироваться... Подождём, посмотрим...
Спасибо сказали:
SamMan(14.02.2012), - 14.02.2012 11:47
- Регистрация: 08.01.2012
- Сообщений: 129
- Репутация: 15
Да, вы правы. Гугл местами... странно-тормозной, скажем так. Ничего не делал, сегодня уже не 8 проблемных ссылок, а 4. Как он так умудряется сам косячить и сам же себя исправлять - загадка. Но в общем ясно: если в проверке роботса на стр. Доступ для сканера вы сами видите что все OK - просто спокойно ждите, все будет.
Спасибо сказали:
tyrust(14.02.2012), - 14.02.2012 13:28
- Регистрация: 01.11.2011
- Сообщений: 826
- Репутация: 57
SamMan,
Спасибо, тоже такая проблема сейчас. - 14.02.2012 16:07
- 01.03.2012 23:26
- Регистрация: 21.02.2012
- Сообщений: 11
- Репутация: 0
SamMan, 10 -20 хороших ссылочек с твиттера вам помогут
проверьте еше раз содержание роботса на вашем сервере - 02.03.2012 03:33
Уменя обычно веселее получается - запрщаеш индексирование того, что ненужно индексировать, а Гуглу пофиг, все в индекс тащит :)
- 02.03.2012 11:42
forsale, такая же ситуация, мне иногда кажется что robots.txt для гугла не существует. Хотя особых минусов я в этом не замечаю, нравится ему - пусть
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
FAQ по robots.txt | Дайджест блогосферы | 12 | 12.02.2012 20:06 |
robots.txt | Web программирование | 4 | 10.08.2011 14:47 |
Robots.txt | Обучающие статьи | 12 | 30.06.2011 10:29 |
robots.txt | Прочее | 0 | 18.03.2011 10:44 |
dle robots.txt | Web программирование | 3 | 08.01.2011 22:16 |