Тыква, ты говоришь собирать много ключей и тд. К чему? Я думаю, намного лучше просто спалить темы трафиковых статей у конкурентов в том же ЛИВЕ и под каждую статью просто спарсить ключи такие какие надо. Ключи конкурентов тут вообще не играют роли. В сапе допустим у моих конкурентов +100500 ключей крутяться. Я сам смотрел ради интереса. Но эти ключи по большому счету просто нч. Спарсенные ими в своей стате и перенесенные в Сапу или др.
Намного легче другой подход - смотрим трафиковые статьи, выделяем в статье ВЧ, забиваем его в Магадан или КК, парсим выдачу с "!" для каждой фразы и добавляем эти ключи непосредственно в статью. Хватит 5-6 ключей. Оптимизируем статью и выкладываем. У меня работает.
А такие загоны с парсингом ключей под 7-8 тыщ штук, их группировка, расфасофка, это глупо. Собранные ключи таким способом просто нч они формируются за счет контента. А трафиковые ключи они есть в выдаче Вордастата сразу. Их не нужно искать. Главное знать тему статьи.
А насчет структуры сайта я с тобой полностью согласен. Плюсую. Сам делаю сайты примерно таким же образом. Палю конкурентов + чуть чуть вордстата.
TbIKBA, ключи закрыты.. ..а точки входа? Точки входа почти всегда открыты. Там есть урлы статей по которым в эти сутки идет траф. Два три главных ключа всегда в титле и очень часто в заголовке. По поводу трафиковых ключей я имел ввиду, что если ввести "!установка !раковины", то вместе с ней в левой колонке будут как раз ключи по которым идет траф. "!установка !раковины !в !ванной" "!установка !раковины !на !кухне" и тд. только по региону МОсква можно собрать 30-40 уников в сутки с Яши. + Гугл. Ключи и там и там почти всегда совпадают. Только процент показов разный, но это больше зависит от того что Яша 55% всего трафа в Рашке.
Странно в своем мануале кажется ты показывал именно этот способ +100500 ключей с разных источников с примером с косметикой. Поэтому я очень удивился такому подходу. Для заказчиков вполне, так как им надо показать работу, а вот с точки зрения эффективности....
Последний раз редактировалось spsayapin; 10.01.2014 в 02:30.
bortnovsky, попробовал рейтинг мэйла - отличный вариант, действительно хороший инструмент. мне кажется там даже больше открытых счётчиков чем в метрике
spsayapin, теперь понял Вас. Да, согласен как с поиском через открытую статистику LI - один из способов, имеет право на жизнь
если ввести
Суть в том, что эти ключи еще нужно найти и для новичков в этом проблема и заключается
Да, в мануале я описывал другой способ - раньше я работал по нему, теперь немного поменял методику, думаю об обновлении мануала. В любом случае для клиентских сайтов намного быстрее парсить, чем искать вручную
TbIKBA, ликбез гуд, но упущен очень важный момент - разбивка по страницам. Учитывая прогрессивность современных парсеров, собрать СЯ скажем из 10 000 запросов не так уж и сложно, а если это интернет-магазин, то и все 100 000 запросов запросто могут быть. Но что дальше? Вот есть у вас список из 100 000 запросов, пусть вы прочекали для них все основные значения вордстата, сняли корректность словоформы и геозависимость, но дальше надо разбить это всё по страницам? Как вы это делаете для уже существующего сайта? Банальное определение релевантной страницы по выдаче ПС дает очень низкую точность. Кроме этого если речь про интернет-магазин, то надо учитывать, что некоторые товары могут не продаваться, например вы запустили парсинг по "мобильные телефоны нокиа" и парсер собрал кучу моделей которых нет на сайте, как фильтровать? Опять по выдаче ПС? А если там будет выводиться страница листинга?
Намного легче другой подход - смотрим трафиковые статьи, выделяем в статье ВЧ, забиваем его в Магадан или КК, парсим выдачу с "!" для каждой фразы и добавляем эти ключи непосредственно в статью. Хватит 5-6 ключей. Оптимизируем статью и выкладываем. У меня работает.
тут как вариант просто выбрать в выдаче по вч сайт из топ 3, просмотреть его видимость в ПС, запросы которые сидят в топ5 - самые трафиковые - их парсим и определяем для них релевантные страницы с которых потом тянем трафиковые ключи.
это вариант на тот случай если разрыв по трафику между топовым сайтом и сайтом вне топа, но с открытым счётчиком, довольно большой. рутинный, но действенный способ.
Последний раз редактировалось money4honey; 10.01.2014 в 11:26.
Bakalov, речь, в общем-то шла больше о информационных сайтах, не о ИМ, если вы для них собрали 10к ключей, то уже как их использовать - это отдельный вопрос, т.к 10к - слишком много все таки. Я бы из этих ключей бы выбирал по-немногу каждый день
Банальное определение релевантной страницы по выдаче ПС дает очень низкую точность. Кроме этого если речь про интернет-магазин, то надо учитывать, что некоторые товары могут не продаваться, например вы запустили парсинг по "мобильные телефоны нокиа" и парсер собрал кучу моделей которых нет на сайте, как фильтровать? Опять по выдаче ПС? А если там будет выводиться страница листинга?
Тут нет никакой магической кнопки "сделать всю работу"
Очень было бы хорошо, а то как то очень давно не было обновлений, а с учетом того что рынок динамичен и всегда появляется что-то новое, это не есть гуд.