Могут ли 80% закрытых страниц от гугл повлиять на продвижение?

(Ответов: 6, Просмотров: 545)
  1. Новичок
    • Регистрация: 19.09.2012
    • Сообщений: 18
    • Репутация: 7
    Продвигаю молодой сайт. 6-7 месяцев.
    80% страниц закрыты в роботс по причине некачественного контента, который был сделан до меня (контент не уникальный). Страницы к сожалению попали в индекс, но как только я начал заниматься сайтом, они были удалены через вемастер тулс из кеша и поиска.

    В последний месяц на сайте открыто только 2 категории из 10-ти.
    В 8-ми, которые закрыты, производились работы по изменению структуры, названий категорий и т.д. Соответственно те категории, которые были ранее проиндексированы (до закрытия в роботс) так и висели в кеше гугл, но из-за того, что они закрыты в роботс + на реальном сайте их уже не существует они отдают 404 и не вылетали из кеша понятное дело.

    На две категории + главную, которые были открыты, были вылизаны (контент, мета теги, h1, тексты с подзаголовками и вычищены от лишних тегов) закупались ссылки.

    Сайт широкой тематики, авто, образование, салоны красоты, сто, шиномонтажи, развлечения и т.д. (все и обо всем).
    Ссылки закупались с новостных сайтов, сайтов про рекламу и тематических сайтов, если ссылка вела на конкретную категорию о чем-то (сто, салон красоты и т.д.).

    Идея сайта заключается в подобии прайс-агрегатора (каталога) с ценами на услуги офлайновых предприятий, все тех же СТО, парикмахерских и т.д. На сайте есть карта Google Maps API. То есть, сайт предназначен для сравнения цен на офлайн рынке услуг.

    ___________________________

    Случилось собственно вот что.

    Сайт понемногу подростал в позициях, начинал заходить в выдачу гугл. Где-то 100, где-то 80, где-то 40-е позиции начали появляться.

    После майских праздников, 90% позиций вылетели из зоны видимости, а те, что остались получили -50 позиций.

    На ссылки вообще не могу подумать т.к. мало того, что их всего 50 штук, так еще и выдерживаются все балансы.
    Плюс ко всему, на сайт не идет ни одного прямого вхождения ключевого слова т.к. еще рано для них.
    Закупались только безанкоры и склонения, словоформы.
    60% на главную, 40 на вложенные.

    Общие ссылочные данные по сайту таковы:
    85% - безанкоры(тут, здесь и т.д.) и хттп
    10% - словоформы и склонения
    5% - нофолоу


    Может ли что-то из этого всего повлиять на такой негатив от поисковой системы?
    Какие могут быть у Вас мысли?
    Может быть сайт изначально был в фильтре, еще до меня за то, что это был такой себе говно сайт, тогда как это можно проверить, если у сайта и трафика не было?

    Моя основная мысль, это открывать все категории сайта, наполненные контентом и максимально быстро.
    Заказал уже 50 статей для описаний категорий + делать блог и тоже шпиговать его уникальным контентом.

    Прошу помочь т.к. не могу понять, останавливать закуп ссылочного или что вообще делать.

    Если необходима ссылка на сам ресурс, готов скинуть в ЛС.

    Спасибо за советы.
    • 0
  2. Гуру
    • Регистрация: 17.03.2011
    • Сообщений: 935
    • Записей в дневнике: 15
    • Репутация: 141
    Думаю резкое закрытие большого куска контента также повлияло. Есть критерий что сайт "обо всем", правда не сильно значимый но все же....
    Мысли верные - переписать контент, открыть к индексации, ссылки могут быть с заспамленых ресов, стоит еще раз просмотреть доноров, если г отклонить или снять полностью.
    Также есть у меня схожий случай - сайт не работал пару дней, с него контент с других ресов чистый копипаст. в феврале по нужным ключам был в топ 5-35. после не работы 2 дней слетел к 100 позициям, назад практически не вылазит. гугл его однозначно запхнул в песочничу, так как ему не ясно что с сайтом твориться. методика схожа - улучшение контента, нормальные ссылки в статьях, реклама в гугл эдвордс (обязательно), привлечение трафа по НЧ НК хоть сколько, движка в социалках (вконтакте) создана группа не ахти что но хоть что-то)). Методика помогла немножко парочка запросов вылезла.
    • 0
  3. Новичок
    • Регистрация: 19.09.2012
    • Сообщений: 18
    • Репутация: 7
    Цитата Сообщение от tolev Посмотреть сообщение
    Мысли верные - переписать контент, открыть к индексации, ссылки могут быть с заспамленых ресов, стоит еще раз просмотреть доноров, если г отклонить или снять полностью.
    Ссылки только с нормальных посещаемых ресурсов от 100 пользователей в день. Анкорные покупались только с чистых ресов где количество входящих ссылок превышает количество исходящих минимум в два раза.

    Да и вообще на ссылки не думаю т.к. 50 ссылок это слишком мало для того, что бы были санкции.

    Наверное контент это все таки ключевой момент.

    Гугл все равно же ходит туда где закрыто даже через роботс и смотрит, что там полное гонево, а там действительно пока полное гонево т.к. тексты копипаст, в некоторых категориях их даже и нет вовсе.

    Единственный момент, который смущает, я никогда не сталкивался с тем, что бы гугл нивелировал выдачу на таких ранних этапах. На моей практике проблемы могли возникать только тогда, когда сайт подбирался к 20-40 позициям, но не 80-100.
    • 0
  4. Гуру Аватар для Norder
    • Регистрация: 09.05.2013
    • Сообщений: 558
    • Репутация: 196
    jorkin, если есть скинете список ссылок в личку, то могу прогнать проверить на заспамленность. Могу ошибаться, но вроде видел на форуме, что получив фильтр - позиции по факту вернуть сложно, даже выйдя из под него. А молодой сайт на копипасте который на 80% закрыт - врядли вызовет восторг у пс. Но это теория, а Вам нужен хороший практик по гуглу или может даже аудит, например у genjnat
    • 1

    Спасибо сказали:

    nn165m(16.05.2014),
  5. Гуру
    • Регистрация: 09.10.2011
    • Сообщений: 1,813
    • Репутация: 251
    Цитата Сообщение от jorkin Посмотреть сообщение
    Если необходима ссылка на сам ресурс, готов скинуть в ЛС.
    Кидайте мне в ЛС.
    • 0
  6. Студент
    • Регистрация: 14.05.2014
    • Сообщений: 36
    • Репутация: 7
    Поисковики не любят, когда от них что-то скрывают... Это факт
    • 0
  7. Студент
    • Регистрация: 29.04.2010
    • Сообщений: 86
    • Репутация: 13
    Всё что скрывает, считает для поисковика, не общедоступным, а это значит что на странице или же что-то запрещенное или не уникальное. Зачем тогда держать такое на сайте, или открываем или же удаляем.
    Как уже выше сказали поисковики действительно не любят закрытые страницы...
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
IndexGator - быстрая индексация страниц в Яндекс и Гугл
Реклама партнерских программ 158 28.03.2015 16:57
Под Гугл Пингвин уходит весь сайт или могут только отдельные страницы?
Google 9 01.09.2012 22:07
Под Гугл Пингвин уходит весь сайт или могут только отдельные страницы?
Вопросы от новичков 3 03.08.2012 09:30
Гугл проиндексировал более 2000 страниц без разрешения!
Google 18 14.03.2012 20:43

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры