qwer555, например, картинки с одинаковыми тегами, названиями. Новость имеет те же ключи, такое же название и даже идентичный УРЛ - это лишь часть признаков.
qwer555, например, картинки с одинаковыми тегами, названиями. Новость имеет те же ключи, такое же название и даже идентичный УРЛ - это лишь часть признаков.
qwer555, при копипасте вы копируете статью и сами заполняете мета. В случае с парсером, вы нифига не делаете, а парсер копирует и контент и мета по теме: как-то сухо всё описано. ни примеров использования таких сайтов, ни скринов.
Если сайт не обновляется 5-6 месяцев это, по идее, еще один повод для Яши кинуть его под агс, тем более и ссылочного на него никакого нет. Как то не логично совсем?
Как то тоже не логично, тогда сайты которые не обновлялись с 2008 годов не находятся в индексе? Конечно нет, у самого сайт не обновляется почти два года и трафик приносит, не смотря на продажу ссылок.
Тема не сильно раскрыта, но сам алгоритм рабочий. Только в плане контента нужно учитывать что не нужно гоняться за запросами, которые двигал источник, а нужно оптимизировать статью под более "падальный" запрос. Именно место в выдаче гарантирует сайту нахождения в индексе, даже не смотря на то что это копипаст.
Если нужно не париться и тупо набить много страниц для продажи ссылок, то используйте копипаст с разных источников на одной странице. Например, как советует один человек, а чуть ниже, а это второй совет. Ручное добавление, или автоматизированное если сможете научить софт нормально все оформлять.
У меня почему-то сайты на копипасте даже в индекс не входят
А у меня входят, но этот метод бредовый. Можно делать чтобы они были в индексе через 2 недели, а тут еще пол года жди. Так дела в интернете не делаются.