jorkin, так что закрыть надо: линки перехода или сами страницы пагинации с частичными дубляжем контента? Если линки, то rel='nofollow'; если страницы, тогда в robots Disallow: /page/1 (или как там движок выводит), однако второй вариант лучше дополнительно запретить через движок (если на DLE - подскажу).
Jeth, я имею ввиду только страницы пагинации, собственно под это только и делал топик.
Если закрывать только через роботс, то скорее всего Вы все равно получите в общей видимости закрытые страницы с припиской "Невозможно получить доступ из-за роботс" зачем они Вам. Решением этому всегда было noindex, follow начиная со второй страницы. А я вот нашел случайно еще один вариант и хотел его обсудить с жителями форума. Интересует в первую очередь пояснение правильности использования определенного метода, то есть, какой метод и в каком случае лучше всего применять или может быть это вообще не имеет значения.
jorkin, каноникал- это указание для пс первостепенной и более ревалентной запросу, ноидекс и нофолов для того чтобы вес не растекался по страницам пагинации, закрывать в роботсе не нужно ничего иначе боты не смогут переходить и попадать на страницы и индексировать сайт дальше, будут тупить короче, а тебе же нужна быстрая индексация.
в роботсе не нужно ничего иначе боты не смогут переходить и попадать на страницы и индексировать сайт дальше, будут тупить короче, а тебе же нужна быстрая индексация.
закрывать в роботсе не нужно ничего иначе боты не смогут переходить и попадать на страницы и индексировать сайт дальше, будут тупить короче, а тебе же нужна быстрая индексация.
Боты ходят по закрытым для индекса страницам как и по любым другим, просто не индексируют.
Для скрытия пагинации, можно использовать каноникал, мета нейм и роботс – в равной степени. Что выбрать зависит исключительно от свойств пагинации и движка – далеко не на каждом есть возможность прописать метанейм только для листинга, а стартовую раздела оставить открытой. Так же как и не везде в URL пагинации есть общий параметр, по которому ее можно было бы запретить в роботс.
Сообщение от jorkin
старого дедовского метода с noindex, follow со второй страницы
Не то ни другое не мешает ботам перейти на страницу (и никогда не мешало), и тем более не запрещает ее к индексации
Последний раз редактировалось genjnat; 08.04.2014 в 22:38.