Всем привет. Возникла такая проблема: Сегодня тал заказчику тестовое задание (рерайтинг текста) дал исходники текста, заказчик переписал текст как положено, решил проверить уникальность текста программой Etxt уникальность 80% посмотрел все совпадения на сайта, и увидел такую картину: совпадения лишь в названии смартфона и названий технологий и всё, а изменить всё это нельзя, как быть? одобрят ли это поисковики?
Norton, Поисковики одобрят, 80% это хорошая уникальность. Если сайт под поиск, то лучше довести до 90%+, если под ссылки, то у меня в индексе уже больше года держатся странички под сапой с 10% уникальности)
Norton, Совпадения связанные с названиями технологий, техники, имен людей - это является одной из главных проблем Etxt, его шингловая система является достаточно жесткой и в свою очередь примитивной. Проверяйте тексты только в Advego Plagiatus и смотрите на более правильную для поисковика уникальность. Вообще в статьях для поисковика главное не уникальность, а уникальная ценность которую невозможно измерить в процентах, не буду вам забивать голову.
Уже давно созревает во мне вопрос по поводу уникальности текстов... Почему все считают, что поисковики проверяют уникальность текста таким же образом, как адвего или етхт?
Почему все считают, что поисковики проверяют уникальность текста таким же образом, как адвего или етхт?
Адвего и етхт скорее являются ориентиром уникальности. Никто еще не придумал системы лучше чем шингловая. Если смотреть например на тект.ру, то по его мнению некоторый ворованный контент и скан можно толкать как уник. Алгоритмов проверки поисковиков никто не знает. Вот интерестно видео на эту тему: