Необходимо закрыть страницы сайта заканчивающиеся на *.html .
Пример http://site.ru/maps/kvartiry/pushkina-29-111.html
Страницы до *.html должны быть открыты для индексирования роботами.
Примеры страниц: http://site.ru/maps/kvartiry/kuplyu
http://site.ru/maps/kvartiry/
Как закрыть от индексации страницы от поисковых роботов?
(Ответов: 9, Просмотров: 4737)
- 24.11.2012 02:10
- Регистрация: 12.08.2011
- Сообщений: 47
- Репутация: 2
- 24.11.2012 02:30
- Регистрация: 01.09.2012
- Сообщений: 253
- Репутация: 42
Закройте в robots.txt
На форуме полно примеров - 24.11.2012 03:02
- Регистрация: 12.08.2011
- Сообщений: 47
- Репутация: 2
- 24.11.2012 03:46
- Регистрация: 07.12.2011
- Сообщений: 221
- Репутация: 13
voland, а почему вас расширение не на всех страницах? вы сами ссылки меняли или сефом?
- 24.11.2012 03:51
Вставляйте в страницы тег <meta name="robots" content="nofollow,noindex" />. Я всегда так делаю.
Также один из способов удаления страниц из поиска – это ручное удаление из панели вебмастера.
Из Google _https://www.google.com/webmasters/tools/
Из Яндекс _http://webmaster.yandex.ru/delurl.xml - 24.11.2012 04:06
- Регистрация: 12.08.2011
- Сообщений: 47
- Репутация: 2
Меня больше интересует как закрыть страницы в robots.txt
- 24.11.2012 04:07
voland,
Запретить весь сайт для индексации всеми роботамиКод:Разрешить всем роботам индексировать весь сайтUser-agent: * Disallow: /
Код:Или можете просто создать пустой файл «/robots.txt».User-agent: * Disallow:
Закрыть от индексации только несколько каталоговКод:Запретить индексацию сайта только для одного роботаUser-agent: * Disallow: /cgi-bin/ Disallow: /tmp/ Disallow: /private/
Код:Разрешить индексацию сайта одному роботу и запретить всем остальнымUser-agent: BadBot Disallow: /
Код:Запретить к индексации все файлы кроме одногоUser-agent: Yandex Disallow: User-agent: * Disallow: /
Это довольно непросто, т.к. не существует инструкции “Allow”. Вместо этого можно переместить все файлы кроме того, который вы хотите разрешить к индексации в поддиректорию и запретить ее индексацию:
Код:Либо вы можете запретить все запрещенные к индексации файлы:User-agent: * Disallow: /docs/
Код:User-agent: * Disallow: /private.html Disallow: /foo.html Disallow: /bar.html
- 24.11.2012 04:43
- Регистрация: 01.09.2012
- Сообщений: 253
- Репутация: 42
Я думаю будет работать?
Код:User-agent: * Disallow: *.html
- 24.11.2012 07:44
Думаю, полезно также ознакомиться с robotstxt.org.ru, там в том числе указаны типичные ошибки при построении этого файла.
Также ряд полезных советов по грамотному исключению страниц и групп страниц (на английском языке - возможно, стоит перевести) здесь: Robots.txt and Meta Robots ...Спасибо сказали:
ks-11(12.02.2015), - 24.11.2012 14:23
- Регистрация: 12.08.2011
- Сообщений: 47
- Репутация: 2
Если я закрою страницы вот так:
User-agent: *
Disallow: /*.html*
Будет ли это правильно?
Тэги топика:
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
Вопрос: Контекстная реклама и индекс поисковых роботов | Вопросы от новичков | 9 | 16.03.2012 11:39 |
Как закрыть от индексации такие страницы? | Вопросы от новичков | 2 | 10.02.2012 15:06 |
Как поиск закрыть от индексации | Web программирование | 14 | 20.08.2011 12:38 |
Как поиск закрыть от индексации | Вопросы от новичков | 4 | 18.08.2011 03:54 |