Тыква, ты говоришь собирать много ключей и тд. К чему? Я думаю, намного лучше просто спалить темы трафиковых статей у конкурентов в том же ЛИВЕ и под каждую статью просто спарсить ключи такие какие надо. Ключи конкурентов тут вообще не играют роли. В сапе допустим у моих конкурентов +100500 ключей крутяться. Я сам смотрел ради интереса. Но эти ключи по большому счету просто нч. Спарсенные ими в своей стате и перенесенные в Сапу или др.
Намного легче другой подход - смотрим трафиковые статьи, выделяем в статье ВЧ, забиваем его в Магадан или КК, парсим выдачу с "!" для каждой фразы и добавляем эти ключи непосредственно в статью. Хватит 5-6 ключей. Оптимизируем статью и выкладываем. У меня работает.
А такие загоны с парсингом ключей под 7-8 тыщ штук, их группировка, расфасофка, это глупо. Собранные ключи таким способом просто нч они формируются за счет контента. А трафиковые ключи они есть в выдаче Вордастата сразу. Их не нужно искать. Главное знать тему статьи.
А насчет структуры сайта я с тобой полностью согласен. Плюсую. Сам делаю сайты примерно таким же образом. Палю конкурентов + чуть чуть вордстата.
- 10.01.2014 02:48
Спасибо сказали:
- 10.01.2014 03:08Где я об этом говорю в статье?Тыква, ты говоришь собирать много ключей и тд
Я пробовал недавно спалить что-нибудь в LI, безуспешно. У всех с открытой статой закрыты ключиЯ думаю, намного лучше просто спалить темы трафиковых статей у конкурентов в том же ЛИВЕ
Конечно глупо, я и не призываю к этомуА такие загоны с парсингом ключей под 7-8 тыщ штук, их группировка, расфасофка, это глупо
А трафиковые ключи они есть в выдаче Вордастата сразу. Их не нужно искать.
- 10.01.2014 03:24
TbIKBA, ключи закрыты.. ..а точки входа? Точки входа почти всегда открыты. Там есть урлы статей по которым в эти сутки идет траф. Два три главных ключа всегда в титле и очень часто в заголовке. По поводу трафиковых ключей я имел ввиду, что если ввести "!установка !раковины", то вместе с ней в левой колонке будут как раз ключи по которым идет траф. "!установка !раковины !в !ванной" "!установка !раковины !на !кухне" и тд. только по региону МОсква можно собрать 30-40 уников в сутки с Яши. + Гугл. Ключи и там и там почти всегда совпадают. Только процент показов разный, но это больше зависит от того что Яша 55% всего трафа в Рашке.
Странно в своем мануале кажется ты показывал именно этот способ +100500 ключей с разных источников с примером с косметикой. Поэтому я очень удивился такому подходу. Для заказчиков вполне, так как им надо показать работу, а вот с точки зрения эффективности....Последний раз редактировалось spsayapin; 10.01.2014 в 03:30.
Спасибо сказали:
Megasonic(10.01.2014), money4honey(10.01.2014), - 10.01.2014 11:38
bortnovsky, попробовал рейтинг мэйла - отличный вариант, действительно хороший инструмент. мне кажется там даже больше открытых счётчиков чем в метрике
- 10.01.2014 11:51
spsayapin, теперь понял Вас. Да, согласен как с поиском через открытую статистику LI - один из способов, имеет право на жизнь
Суть в том, что эти ключи еще нужно найти и для новичков в этом проблема и заключаетсяесли ввести
Да, в мануале я описывал другой способ - раньше я работал по нему, теперь немного поменял методику, думаю об обновлении мануала. В любом случае для клиентских сайтов намного быстрее парсить, чем искать вручную - 10.01.2014 12:08
spsayapin, +1 за трафиковые статьи. под гугл вообще рулят, сегодня статья - завтра траф. с ливом актуально
- 10.01.2014 12:09
TbIKBA, ликбез гуд, но упущен очень важный момент - разбивка по страницам. Учитывая прогрессивность современных парсеров, собрать СЯ скажем из 10 000 запросов не так уж и сложно, а если это интернет-магазин, то и все 100 000 запросов запросто могут быть. Но что дальше? Вот есть у вас список из 100 000 запросов, пусть вы прочекали для них все основные значения вордстата, сняли корректность словоформы и геозависимость, но дальше надо разбить это всё по страницам? Как вы это делаете для уже существующего сайта? Банальное определение релевантной страницы по выдаче ПС дает очень низкую точность. Кроме этого если речь про интернет-магазин, то надо учитывать, что некоторые товары могут не продаваться, например вы запустили парсинг по "мобильные телефоны нокиа" и парсер собрал кучу моделей которых нет на сайте, как фильтровать? Опять по выдаче ПС? А если там будет выводиться страница листинга?
Спасибо сказали:
Вальдемар(10.01.2014), - 10.01.2014 12:20
тут как вариант просто выбрать в выдаче по вч сайт из топ 3, просмотреть его видимость в ПС, запросы которые сидят в топ5 - самые трафиковые - их парсим и определяем для них релевантные страницы с которых потом тянем трафиковые ключи.
это вариант на тот случай если разрыв по трафику между топовым сайтом и сайтом вне топа, но с открытым счётчиком, довольно большой. рутинный, но действенный способ.Последний раз редактировалось money4honey; 10.01.2014 в 12:26.
- 10.01.2014 12:21
Bakalov, речь, в общем-то шла больше о информационных сайтах, не о ИМ, если вы для них собрали 10к ключей, то уже как их использовать - это отдельный вопрос, т.к 10к - слишком много все таки. Я бы из этих ключей бы выбирал по-немногу каждый день
Тут нет никакой магической кнопки "сделать всю работу"Банальное определение релевантной страницы по выдаче ПС дает очень низкую точность. Кроме этого если речь про интернет-магазин, то надо учитывать, что некоторые товары могут не продаваться, например вы запустили парсинг по "мобильные телефоны нокиа" и парсер собрал кучу моделей которых нет на сайте, как фильтровать? Опять по выдаче ПС? А если там будет выводиться страница листинга? - 10.01.2014 12:55
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Вопрос по сбору семантического ядра под Google | 5 | 10.04.2013 22:00 | |
Плюсы, минусы сервисов по сбору беков | Софт, скрипты, сервисы | 15 | 09.01.2013 20:33 |
Twitter-ликбез от Twidium | Социальные сети | 1 | 10.08.2012 17:30 |
Сервис по сбору и уникализации контента BlogBot | Софт, скрипты, сервисы | 2 | 26.04.2010 19:17 |
Тулза по сбору всех страниц сайта | Софт, скрипты, сервисы | 21 | 22.04.2010 15:16 |





