Здравствуйте, вопрос такой, что нужно скрывать от индексации на сайте?
Варианты которые я знаю:еще что то?
- баннеры (баннерную рекламу)
- блоки контекстной рекламы
- облако тегов
- лучайные статьи(чтобы не понижать уникальность текста)
- дублирующее меню
- внешнии ссылки
Как закрывать, ведь есть Noindex и Nofollow?
И еще вопрос. Если с помощью плагина закроешь индексацию внешних ссылок, то тогда как быть с продажными ссылками?
- 04.01.2013 16:38
- Регистрация: 01.09.2012
- Сообщений: 107
- Репутация: 6
- 04.01.2013 17:18
- 04.01.2013 17:55
noindex для текста и только для яндекса, для ссылок nofollow. Внутренние ссылке не нужно закрывать. внешние по желанию, да вес ссылка передавать не будет, но всё равно вес на самой странице распределяется на все ссылки, то есть если на странице 3 ссылки, то каждая получит вес 0.33, а если 4, то соответственно вес распределится по 0.25, пусть даже одна из них будет с атребутом нофоллоу, всё равно остальные ссылки больше веса не получат. вот по этому не стоит на внутренние ставить ноуфоллоу. на дубли нужно canonical. а лучше ещё в роботсе их закрывать.
- 04.01.2013 18:27
Я закрываю:
1. Страницу с результатами поиска.
2. Копипаст и дубли контента
3. Рейтинги и статистику.
4. Облако тегов.
5. Некоторые не нужные ссылки. - 04.01.2013 20:54
а как закрыть облако тегов?
- 04.01.2013 22:16
- Регистрация: 08.11.2010
- Сообщений: 370
- Репутация: 60
Вообще не запариваюсь по теме. Закрывать внешние ссылки вообще тупость. Если их у вас покупают, это мошенничество. Если это СДЛ и ссылки даны для пользователей, они не должны быть закрыты по определению. Nofollow именно поэтому и придумали, чтобы не учитывать технические ссылки. А вебмастера все извратили :) Читайте рекомендации гугла. Robots.txt другое дело. Там можно дубли закрыть и технические страницы.
- 04.01.2013 22:29
roon, Disallow: /tags/ или как там у Вас в двиге
Вообще, лучше все максимально закрыть в Robots, чем пользоваться всякими nofollow и noindexСпасибо сказали:
roon(06.01.2013), - 04.01.2013 22:39
Вообще некоторые элементы которые явно нарушают семантику страницы можно и в отдельный файл вынести, например ява скриптом.
На не мало известном проекте wikimart подобные решения встречаются. - 04.01.2013 22:43
Используйте javascript и редирект, будет Вам счастье.
- 05.01.2013 01:27
Лично я всегда закрываю архив.
Тэги топика:
- быть,
- внутренний,
- вообще,
- вопрос,
- закрывать,
- индексация,
- можно,
- нужный,
- плагин,
- получить,
- равно,
- реклама,
- ссылка,
- страница,
- технический
Похожие темы
Темы | Раздел | Ответов | Последний пост |
---|---|---|---|
Закрывать рубрики от индексации или нет? | Общие вопросы поисковой оптимизации | 64 | 03.03.2013 22:07 |
Закрывать ли внешние ссылки от индексации? | WordPress | 6 | 08.11.2012 14:25 |
Закрывать-ли страницы от индексации? | Вопросы от новичков | 11 | 14.03.2012 12:33 |
Закрывать от роботов теги? | Web программирование | 1 | 10.08.2011 15:29 |