Недавно сайт потерял практически всю поисковую видимость (даже все нк из выдачи пропали).
Лично я думаю на контент, ибо он местами откровенно слабый, да и скорее всего есть переоптимизацию. Но там 2000 страниц, и я не знаю как лучше все проверить.
И так, стоит задача:
Проверить 2000 страниц сайта на уникальность и переспам (в идеале ещё и на читаемость). Как это лучше и удобнее всего сделать?
проверь выборочно контент на уник, что то сильно я сомневаюсь улет даже по нч из за переоптимизированного текста (хотя смотря как переоптимизирован))))
Как минимум проверить уникальность можно следующим способом.
1. Взять список страниц (можно вытянуть Xenu, например). 2. И загнать в програмку Plagiata.NET Плюс проги, что она может проверять массово по списку страницы.
Delet_ER, у меня аналогичная ситуация с гуглом, статьи тоже под НЧ. Подозреваю, что дело в заголовках - везде присутствует прямое вхождение НЧ ключа + легкая шаблонность...