Есть коммерческий сайт silkstars.com, хочу сделать так чтобы роботы видели только те страницы которые будут оптимизироваться ~75. Можно ли сделать так чтобы через роботс запретить на индексацию все страницы кроме этих. Хочу оставить в индексе Главную страницу, страницу с городами, страницы с гостиницами. Страниц сейчас больше 1.5к, какие минусы и плюсы будут при таких действиях, особенно на перелинковку. Может есть варианты по лучше, которые я смогу реализовать.
- 28.08.2013 13:37
- 28.08.2013 20:54
Нет припятствий патриотам. Пихаешь в заголовок
<meta name="robots" content="noindex,follow" />
или ее вариации и вуаля.
Например: http://zavarka.org/ - любой тег - закрыт.Последний раз редактировалось Бабайка; 28.08.2013 в 20:57.
- 31.08.2013 04:12
можно в роботс запретить,ничего страшного не произойдет!
- 31.08.2013 04:27
Просто в robots.txt запрети весь раздел с новостями, которые тебе не нужны.
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Как обойти запрет гогетлинкса? | gogetlinks | 2 | 17.07.2013 12:47 |
Как обойти запрет гогетлинкса? | Оффтоп и свободные темы | 0 | 11.07.2013 18:22 |
Запрет доступа к странице в htaccess | Web программирование | 1 | 29.11.2012 16:57 |
Facebook - запрет на приглашения в группу | Социальные сети | 6 | 21.12.2011 17:28 |
Запрет title у миниатюр | Web программирование | 10 | 22.05.2011 00:51 |




