Вопрос в сабже, только с такой пометкой: Изначально контент на странице был уникальный, написан с нуля и т.д. Но ниша такова, что такой контент, как у меня на странице, часто парсится дорвейщиками и другими для своих проектов.
Пару недель назад на странице очень сильно начал падать трафик, в 4 раза + много основных позиций повылетали из ТОП-3 в -40 и даже из ТОП-100. Я уже все прочекал, ссылочное норм - уверен на 99%. Было подозрение на вирус, т.к. нагрузка выросла на сервере в 2 раза несколько дней (не весь период можно просмореть по нагрузке), прочекал Айболитом - все норм.
Сейчас есть подозрение на какой-то фильтр от Гугла за неуник контент (по разным сервисам проверялось - везде неуник, 0%-30%) и как раз нагрузка могла вырасти из-за парсинга. Кто в теме, подскажите, может быть такой сценарий?
Может, но не обязательно за неуник. Фильтры Яндекса и Гугла - обзор _http://coderhs.com/archive/yandex-google-filters-review
При любом раскладе, аудит покажет более, чем играть в угадайку. Кроме того - есть то, что можно переделать, и есть, что нет. Тогда можно значительно сузить поиск и возможные варианты - когда это у вас произошло, что делалось и т.д. - хотя бы поверхностный анализ, с использованием информации от метрики и WM, поможет во многом. Использовать WM как гугла, так и яндекса.
Забыл - полезно будет: Почему сайт плохо ранжируется в Google _http://coderhs.com/snippets/site-index-google-codex
Спасибо, но там аудит не катит - там 5 страниц, одна продвигаемая, пару технических и 2 по тематике. GWT чист, Яндекс тоже. Ни делалось абсолютно ничего в последние месяца 2. Только по мелочам менялся текст. Все было ок.
Может быть такое, о чем Вы говорите, например, у Вас спарсили контент и пустили целевой трафик на дор или плагиат. Если там ПФ будет лучше и пользователей больше, то может быть взаимосвязь.
Сообщение от Diegohaas
по разным сервисам проверялось - везде неуник, 0%-30%
То же самое было 3 месяца назад. Сайт 5-ти страничник, под CPA. Был год в топ 1—5, улетел на 3 десятку. Ничего до этого с ним не делал. Висит и висит себе. Начал разбираться, нашел что контент на 99 процентов сперли... Как быть?
С чего вы решили что у вас будет определяться уник? Текст уже спарсили десятки-сотни-тысячи раз, уником он может быть только в первые дни. Если растащили на доры, то понятно что позиции проседают, тем более если не ведутся работы с дальнейшим продвижением, а гоша теперь не очень любит когда с сайтом не работают. Это раньше можно было повесить пяток страниц, купить 2 ссылки и жить в топе, сейчас конкуренция просто дикая.
dotWizard, По унику - я думал так: если контент был ранее проиндексирован на сайте A, а потом проиндексирован на сайтах B и C, например - то уником будет считаться контент именно с сайта A, т.к. там он появился ранее. По крайней мере, у меня было достаточно таких примеров (или я так думал). Спасибо, это интересное мнение по ПФ, я это никогда не учитывал особо.
По поводу 5 страниц, я спорить не буду. Я знаю, что работает у меня и вижу в ТОП-е в серьезных нишах примеры и с одной-двумя страницами под траф. Не хочу скидывать ссыль, но в ТОП-е Гугла по микрокредитованию есть сайт с 6 страницами в индексе, где только 2-3 страницы под трафик сделаны и с такими вот ссылками на ломе (https://prnt.sc/h29c2d). У кого какой подход.
Не достаточно просто уникального контента... он должен быть адекватным и полезным. Если написать какую то "абракадабру" непонятную то она будет уникальна, но трафика и позиций не будет, потому, что контент не интересен поиску.
Вообще Платон как то ответил, что есть "уникальный" контент, а есть "оригинальный", так вот поиску нужен как раз "оригинальный" контент а не "уникальный".