Уважаемые. Вот такая ситуация случилась. У клиента был сайт. рабочий. Он его продвигал и был в гугле на первых страницах по нужным запросам. Я занималась переделкой сайта. Переделывала у себя на хостинге. И когда перенесла новую версию сайта на хостинг клиента забыла разрешить индексацию в роботс-тхт Через несколько дней по сайту прошелся робот гугла. После этого сайт с первых позиций в выдаче ушел куда-то в **пу При этом в выдаче заголовки страниц отображаются нормально, но во всех дескрипшенах написано - Описание веб-страницы недоступно из-за ограничений в файле robots.txt.
Что было сделано, чтобы исправить. 1. Вернули нормальный файл роботс. 2. Пропинговали гугл модулем мультипинг для друпал. Делали это вчера. Ситуация не изменилась.
Вопросы. 1. Как вернуть дескрипшены на место и чем побыстрее? 2. После того, как вернутся дескрипшены восстановятся ли позиции сайта?
как вариант, идти в Инструменты для веб-мастеров/Просмотреть как Googlebot там 500 запросов, делать запросы на каждую страницу и отправлять ее в индекс, если сайт не уг, то данные о страницах могут тут же обновиться (дескрипшены в том числе)
Как в вебмастера гугла написано. что гугл сканирует каждый день. ждать сутки и на с следующий день про сканирует. а лучше как говорят закинуть все ссылки в твиттер.
-HostPro.ua_ - Лучший хостинг. Пожизненная скидка -10% с промокодом, на хостинг P235603-39483, на Cервера P235603-64089
worldfoto, это зависит от качества ресурса. Если крупный - скан идет едва ли не ежеминутно, а если гс - можно ждать несколько дней. Однако в любом случае ждать и можно даже не париться на счет прогонов.
Позиции потихоньку должны будут вернуться, но я бы помог социальным пиком. Могу порекомендовать сервис indexgator.com - просто вписываете url страниц и ждёте.