0) Предисловие. Выводить в топ будем профиль. Какой конкретно социалки или форума - каждый должен выбрать для себя сам, т.к. со временем все меняется. Если хрумер у вас на сервере, то дела пойдут быстрее, чем у меня. Если дома, то тоже ничего страшного.
1) Собираем базу. Итак, перво-наперво нам нужна актуальная база для cпама. То, что идет вместе с апдейтом хрума никуда не годится, потому что все становится быстро загажено. Поэтому будем парсить свою базу. Как пользоваться хрефером и собирать базу форумов по признакам я вас учить не буду, написана куча манов даже на этом форуме. Интересен будет следующий момент - из тонн напарсенного говна собираем самое вкусное - то, что индексируется гуглом 100% - то, что не закрыто от поисковиков, что не требует авторизации. Короче, реально работающие линки.
Как делаем? Да очень просто. Вкусные форумы сами спалятся. Вешаем на свой сервер скрипт, в теле сообщения хрумера делаем следующую имитацию подписи:
Тут какой-нибудь текст. Например, спросите, как у них на форуме можно стать модератором. ---- My Blog
Таким образом, мы ставим ссылку на скрипт на нашем сервере и параметром в виде URL'а сайта, где стоит ссылка. Как только гуглобот хавает эту ссылку, у нас все отражается в логах.
Вот и сам скрипт:
PHP код:
<?php
if ( isset( $_GET['r'] ) )
{
// stats file
$stats_file = 'stats.txt' ;
// get current stats
$stats = file( $stats_file ) ;
В папку со скриптом положите файл stats.txt, поставьте ему права 777 (chmod 777 stats.txt). Спамим по огромной базе, а лог становится все больше и больше.
Сначала имя хоста, где стоит ссылка, потом, через точку с запятой, юзерагент. Мы будем отбирать из списка только ссылки, по которому прошелсы Googlebot. Для этого напишем еще один скрипт-парсер:
PHP код:
<?php
$file = 'stats.txt' ;
$content = file( $file ) ;
$good_user_agents = array() ;
foreach ( $content as $k=>$v )
{
if ( FALSE !== stripos( $v, 'googlebot' ) )
{
Теперь копируем весь этот список в файл и включаем хрумер - сейчас мы будет фильтровать нашу базу, по которой надавно cпамили. Открываем меню "Инструменты - Фильтр базы ссылок" и ставим настройки также, как на скриншоте ниже. Естественно, выбрав в самом верхнем поле свою базу.
Итак, когда приличная база будет готова, пора cпамить. Но не откладывайте дело в долгий ящик, потому что собранные базы долго не живут и быстро теряют свою актуальность.
2) Выбираем ресурс для создания профиля.
Теперь попытаемся выбрать ресурс, с которого нормально вылезет профиль. Они тоже быстро теряют свою актуальность, поэтому будем смотреть, что именно сейчас рулит. Для этого смотрим выдачу Кофеина - www2.sandbox.google.com
Смотрим наиболее вкусные запросы, но не сильно жирные: buy viagra now, buy viagra usa, viagra for sale и т.д. Нашлось следующее:
Как видно, бонусных ресов до попы просто, главное хорошо про****ить. Как вылез тот или иной дор смотрим по ссылкам, если они появились в поиске. Ну и, одно из самых главных, пасем структуру профиля, сколько текста, ключевиков, картинок и т.д.
В итоге, что выявилось похожее на всех профилях:
яркая картинка, привлекающая внимание и отвлекающая от говнотекстов вокруг;
простыни ключевиков, штук по 20 подряд;
иногда есть вставки читаемого текста.
По "buy viagra" в топе больше профилей, чем нормальных сайтов. Интересный факт про профиль на первом месте смотрите ниже:
3) Подготовка.
Фигачим два-три профиля, расставляем картинки, кеи, тексты также, как и на увиденных профилях. Пробуйте разные вариации. Скорее всего вам придется регать профиля в ручную, т.к. стоит или капча или хрум не берет по другим причинам, но это много времени не займет. Далее, пишем скрипт для редиректа на наш шоп с профиля - мы не будем напрямую ставить урл шопа в профиль. Сделаем мини-редирект со статистикой.
Я вставлял рандомно 1-3 ссылки на сделанные профили, также рандомно текстовку сообщения. Выбираем базу, составленную на первом шаге и вперед. Результат будет.
Скажу про себя. Напарсил пробную базу, ждал переходов в течении почти что суток, чтобы собрать нормальные линки с базы. Потом отфильтровал базу. Линков оказалось мало, это было поянтно сразу. Но решил проcпамить на пробу - в итоге вылезло по нужному запросу, но слабо. Вывод только один - собирать базу еще, еще и еще. В базе сила, бонусные форумы и социалки найти можно.
5) Продолжаем собирать базу.
Т.к. блоги очень хорошо индексируются, решил я напарсить базу wordpress-блогов. В паблике что-то и лежит, но я предпочитаю парсить всегда сам. Итак, запускаем хрефер с параметрами, как на картинке ниже:
Доменные зоны я прописал явно (com, net, org, edu), чтобы фильтровать всякий шлак.
Базу ключевиков я делал так: вписал в файл с кеями строчку "Powered by Wordpress", и еще около 1к ключевиков спарсил с гугла, в этом же хрефере. Оставляем парсить на ночь, с утра в логе куча всего. Но нам нужны только блоги на вордпрессе.
Какая же есть отличительная черта вордпресса по сравнению с форумами? У него имеются пинги. Для проверки этого отсылаем запрос на сайт на вордпрессе и считываем заголовки ответа. Там будет что-то вроде "X-Pingback: ...", то что нам надо.
Открываем инструмент "Анализатор базы ссылок и отчетов", в поле "Source" выбираем то, что у нас напарсил Хрефер. Затем выбираем область поиска в "Content", не забываем ставить чекбокс на "Проверять только заголовки" - в этом случае проверка идет очень быстро, не качается вся страница, а только ее заголовки. Как мы знаем, пинги можно проверить по заголовкам, для этого пишем в поле "Искать:" следующее:
X-Pingback
Теперь жмем "Пуск".
В результате получается база блогов на wordpress, проверить на скорость индексации можно методом, описанном в первом шаге руководства.
6) Дополнения.
Если вы знаете как увеличить отдачу от данного метода или у вас какие-либо дополнения, с удовольситвием выслушаю.
Вообщем, пока вы думаете, пробовать или нет, я очередной раз пошел запрягать хрефер
спасибо) для еще более качественной базы можно чекать активлинкс сразу при cпаме, но это занимает некоторое время. поэтому я сразу скриптом собираю базу.