На мой взгляд, если у сайта в поисковой выдаче от апа к апу от 1 до 15 страниц в выдаче (хотя контента на сайте явно больше) - это АГС.
Вероятные причины: - или не уникальный контент или САПА.
Варианты решения: ...
(Прошу тему дополнять признаками того что сайт попал под АГС, причины попадения сайта под этот фильтр и варианты решения этой проблемы
---------- Сообщение добавлено 19:58 ---------- Предыдущее 19:52 ----------
Начну с себя.
Есть сайт, полу СДЛ, что я сделал под адсенс, периодически закупал на него ссылки и он постепенно выходил на нужные позиции по нужным ключам. После очередного апа ТИц сайт получил десятку, и вот тут "жадность фраера сгубила" я добавил его в сапу и результат не заставил себя долго ждать, после апа 7 страниц в выдаче...
Методы лечения: сапу снял и написал жалобное письмо Платонам, в том что "каюсь" сапа была, но снял уже, ответ был, что если все ок со временем влияние продажных ссылок пройдет и сайт появится в выдаче. Вот после последних апов понемногу начали добавяться страницы в выдаче. Надеюсь что он весь вернется в выдачу и станет нормально назад по ключам.
- 15.03.2011 22:58
- 15.03.2011 23:24
куча дешевых ссылок на сайт
- 15.03.2011 23:33
У меня сайт с рерайтом, в принципе посещаем, популярен, но вот после того, как я перестал его вести, осталось 15 страниц в индексе, вернулся, и новые не добавляются. Ссылки не продавал и не покупал. Вот теперь не знаю что делать, ведь такая работа проделана большая. Есть вероятность, что сайт выйдет из под АГС?
- 15.03.2011 23:54Banned

- Регистрация: 17.02.2010
- Сообщений: 352
- Репутация: 27
Убил ссылками по не опытночсти. Сапа сапа...
- 15.03.2011 23:56
Еще, как вариант, если сайт лежит долгое время и несколько раз боту яндекса был 404 ответ, например.
- 15.03.2011 23:57Banned

- Регистрация: 17.02.2010
- Сообщений: 352
- Репутация: 27
- 16.03.2011 02:27
Вероятные причины попадание сайта под АГС:
1. Не уникальный контент
Метод решения просто - это писать уникальный контент. Или качественный рерайт.
2. Дублирование контента. Здесь речь идет о архивах сайт, метках, тегах и т.д.
Метод решения так же прост. Нужно закрыть от индексации не нужные категории на сайте. Для этого нужно создать файл robots.txt, где указать категории, которые поисковик не должен индексировать и загрузить в корень сайта. - 16.03.2011 07:15
Наиболее распространенная беда, по моим наблюдениям — неуникальный или дублированный контент + отсутствие трафика.
- 16.03.2011 09:00
В том и дело, что трафик есть, контент хорошо отрерайтен. Мне вот интересно стало про "Здесь речь идет о архивах сайт, метках, тегах и т.д. ". Но дело в том, что параллельный блог полностью построен из копипаста страшного и индексируется всем, чем можно.
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Как поднять тиц? Актуальные методы | Дайджест блогосферы | 9 | 16.06.2011 21:14 |
Неэтичные методы продвижения | Дайджест блогосферы | 0 | 24.05.2010 16:23 |
Методы раскрутки сайта | Дайджест блогосферы | 12 | 10.02.2010 17:00 |
Плагиат, методы борьбы | Вопросы от новичков | 18 | 25.09.2009 22:47 |
Методы наполнения контентом DLE и WP | Прочее | 40 | 25.09.2009 10:22 |
Интересные темы
дешевый уникальный контент
Подробно о разных способах получения дешевого уникального контента и многое другое, читай здесь подробно.







