Проверяя сайт (глубокой проверкой тхт плагиата) столкнулся с такой проблемой, как то год назад писал статью для людей, размер около 3000 слов, писал сам лично не рерайтил не одного сайта, на момент написания статья была 99% уникальна, сегодняшняя проверка показывает мне 55% уникальность и пару сайтов с совпадение 22% и 11%, открываю там просто копия моей статьи, и тут я въехал в пня!!!!
Вопрос 1 - как на самом деле поисковик реагирует на уникальность, насколько я знаю если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты". Вопрос 2 - как такое могло произойти что через год текст стал не уникальным? Вопрос 3 - заметил что плагиат проверяет совершенно весь код страницы, расположение ссылок и текста в меню, похожие посты и т.д, в итоге складывает в совокупности все вместе и выдает результат, я посмотрел все что помимо статьи всегда совпадает с каким то сайтом, а значит не уникально, как думаете поиск учитывает уникальность, всего прочего что вокруг статьи? Вопрос 4 - нужно ли мне заново переписывать статью и делать ее уникальной? Вопрос 5 - Какой проверке доверять 1.Глубокая 2. Стандартная 3. На рерайт?
И небольшой совет: Проверял еще один сайт, на некоторых статьях которые мне писали авторы, попалась уникальность по 60%, открыл сайты которые показал плагиат, там действительно просто скопированные куски текста, совершенно неисправленные, статью заказывал на тхт, зашел посмотрел архив, нашел эту статью тхт показывает 98% уникальность, щас ищу того автора, буду с ним разбираться. Внимательно проверяйте работу копирайтера, чтобы не схлопотать фильтр, кстати последнее время я действительно заметил падение позиций гугла, хотя под него хорошо оптимизировал сайт, буду доводить тексты и смотреть как изменяться позиции.
Последний раз редактировалось samsonbiz; 27.08.2016 в 09:39.
если меньше 89% можно получить "панду и АГС фильтр за дублирующиеся сниппеты".
От одной статьи из сотни ничего не будет.
2) Уникальность проверяется механистично сервисами - гуглятся части оригинального текста и по алгоритмам выдается уникальность в зависимости сколько раз и какие части обнаружились на других сайтах. Это лишь справочная информация, пс иначе считают это дело, но как точно никто не скажет.
3) Нет. Есть контент, есть вспомогательные элементы. Учитывать вспомогательное это чушь, взять например паблик шаблоны сайтов. Разве что будут какие-то ошибки при распознавании где заканчивается контент и начинается остальная часть страницы.
4) А смысл? Каждый год переписывать весь контент после того как его растащили к себе копипастеры?
Вот провел эксперимент, автор написал новую статью сейчас, решил ее проверить и вот что вышло:
етхт на рерайт - 87% етхт глубокая - 94% Адвего - 100% Контент ватч - 95% И кому спрашивается верить, а ведь ошибка дорогого стоит.
Я вот еще подумал над тем что писал выше, про статью которую я писал сам которая сейчас 55%. Пришел к выводу что я проверяю ее, а естественно чтобы она не показывала мой сайт то мой домен надо исключить из проверяемых, тогда плагиаты сверяют данные с другими сайтами, но так как моя статья год в топ 1, скорее всего ее уже много раз рерайтили, и эта проверка просто часто совпадает с теми кто меня копировал. Тогда вопрос как же узнавать какая у меня уникальность? ( и видимо ответ один "никак") И получается что настоящую уникальность ты можешь узнать до тех пор пока тебя не отрерайтили.
Заметил еще вот что, например етхт плагиат выдает документы с большим процентом совпадений, но их просто нет по адресам, тоесть из сохраненных копий, но при проверки они почему то учитываются.
Скрин -
Остается только гадать как поисковики работают с текстом, что учитывают, какие фильтры, думаю помогут только эксперименты.
Еще одно загадка. Делая проверку сайта етхт, он присвоил многим статьям уникальность 20-40%, проверяя же по адвего и ватчу там 100%.
Последний раз редактировалось samsonbiz; 27.08.2016 в 15:26.
brainix,Тогда получается вывод что уникальность своей статьи мы можем узнать только после ее размещения, ну и еще через месяц, а если человек через год решил провести аудит, то уже бесполезно?
Тогда получается вывод что уникальность своей статьи мы можем узнать только после ее размещения, ну и еще через месяц, а если человек через год решил провести аудит, то уже бесполезно?
Если подходить скрупулезно то и через год можно узнать уникальность - это поставить в исключения все сайты которые скопировали статью и по дате видно что на тех сайтах статья появилась позже. Но зачем?