Сейчас работаю над одним сайтом. Проверил индекс. В Яндексе и Гугле сидят по 200+ страниц типа site.ru\nazvanie-posta\photo-001. На сайте раньше не было файла robots.txt и сотни фото попали в индекс, как отдельные страницы. Чтобы удалить их нужно: 1. Запретить их индексирование в robots (отдельно для каждой страницы, а это более 200(!) строк). 2. Добавить страницы в очередь на удаления в Яндексе (каждую по отдельности). 3. Отправить запрос гуглу на временное скрытие страниц из индекса.
Не хочется все это делать вручную. Есть ли способы как-то автоматизировать или ускорить процесс? Хотя-бы c robots...
ruslang84, ну, вы указали photo, я и написал для photo)
Тогда можно пробовать прописать так:
Disallow: *.jpg Disallow: *.png Disallow: *.gif
Это если картинки в формате джипег, пнг и гиф. Думаю в таком случае надо будет дополнительно прописать отдельной секцией разрешение на индексацию для картиночных роботов.
п.с. нет... кажется я понял вашу проблему... сейчас ещё подумаю...
какой движок на сайте?
Последний раз редактировалось Gann; 22.12.2015 в 09:55.
Gann, сейчас ничего лишнего в индекс не попадает. Видимо, пару лет назад не было роботса. В том-то и проблема, что фото прописываются без расширений, просто названия...
Видимо, придется удалять вручную. Кстати, заметил что Яндекс выкидывает их из индекса примерно в течении получаса после запроса.