Вордпресс. в мае все настроил, закрыл от индексации все что ненужно. с мая по август все ок, индексируются только статьи. с августа по сентябрь откладываю сайт, изредка поглядывая на трафик (растет и хорошо).
в ноябре возвращаюсь к сайту и вижу что в индекс с сентября начинает залетать мусор в виде дублей страниц - page1, page2 и т.д. теги, хотя я их закрыл и до сентября все было ок.
Вопрос: что я пропустил и что делать?) за то время пока сайт отлеживался индексированных страниц удвоилось(
- 09.10.2014 12:09Новичок


- Регистрация: 11.06.2014
- Сообщений: 11
- Репутация: 0
- 09.10.2014 12:42
Evily, покажите ваш robots.txt хотя бы для начала ) Может, все-таки не до конца закрыли? И что в Яндекс.Вебмастер, есть какие-то советы/сообщения по поводу страниц, роботс?
- 09.10.2014 13:07Студент

- Регистрация: 13.05.2013
- Сообщений: 40
- Репутация: 2
Покажите свой robots так сложно сказать. Или просто пришлите свой домен, посмотрим что и как с ним. Обычно Яндекс не индексирует всякую шляпу, поэтому тут сожно что либо сказать... Кстати у вп есть такой плагин - называется all seo pack так вот он позволяет принудительно закрывать что не надо... Разумеется, я сразу все прописывают в роботсе, что бы не было потом головняка...
- 09.10.2014 13:21
Ранее такое замечалось за Google, объяснялось это тем что robots.txt для ПС носит рекомендательный характер, и кстати Яндекс ранее в блоге писал, что если на данные страницы есть внешние ссылки, возможно их появление в поиске. В своё время более эффективно работали мета-теги robots, но вот насчёт плагина для WP управляющего ими не знаю.
Последний раз редактировалось VtopSearch; 09.10.2014 в 13:24.
- 09.10.2014 17:10Дипломник

- Регистрация: 13.08.2014
- Сообщений: 106
- Репутация: 37
Любая публичная страница доступна поисковику для индексации. Это уж его дело, обращать внимание на robots.txt или нет и в какой степени.
Дубли в индексе одна из тёмных сторон популярного и изведанного вдоль и поперёк вордпресса. - 11.10.2014 10:14
а с гуглом эта проблема как-нибудь решается? роботс вроде настроен, но очень много дублей в поиске (страницы сортировки и пр.)
сайт: shop.skverteks.ru
движок: uralcms - 11.10.2014 12:02
У Вордпресс есть беда с роботсом. Страницы WP будут плавать в выдаче Я/G с коэффициентом до 0.1
Почти все имеющиеся в паблике готовые решения по роботсу желаемого результата не дадут. Нужна более тонкая настройка самого движка WP (работа с эффективными плагинами) и файла роботс.
Решением для снятия дублей с выдачи:
- в Яше удалять через панель Вебмастера (+ закрывать в роботсе на 404 ошибку)
- делать страницы-дубли каноническими
- закрывать на индекс категории, навигацию и др. - 11.10.2014 12:04
AlexSok, так у вас и не закрыто это всё. Добавьте хотя бы Disallow: *?page* если не хотите чтобы пагинация была открыта и Disallow: *?current_cat* для сортировки. Подробнее могу вечером глянуть, если напомните
Спасибо сказали:
AlexSok(11.10.2014), - 11.10.2014 13:01
Вариантов robots.txt в интернете множество. Надо увидеть как именно вы закрыли. чтоб что-то заявлять.
- 11.10.2014 14:22
Omura, так сайт указали уже выше
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Google индексирует запрещеные страницы | Вопросы от новичков | 4 | 20.02.2014 22:20 |
Яндекс индексирует одноклассники | Вопросы от новичков | 10 | 17.12.2013 14:30 |
Гугл не правильно индексирует страницы (Прошу указать причину) | WordPress | 4 | 16.08.2013 15:24 |
Гугл индексирует страницы, запрещенные в robot.txt | 11 | 04.09.2012 12:04 |



