Ликбез по сбору СЯ + палю фишки

(Ответов: 40, Просмотров: 32961)
Страница 2 из 5 Первая 1234 Последняя
  1. Опытный Аватар для spsayapin
    • Регистрация: 21.02.2013
    • Сообщений: 300
    • Репутация: 42
    Тыква, ты говоришь собирать много ключей и тд. К чему? Я думаю, намного лучше просто спалить темы трафиковых статей у конкурентов в том же ЛИВЕ и под каждую статью просто спарсить ключи такие какие надо. Ключи конкурентов тут вообще не играют роли. В сапе допустим у моих конкурентов +100500 ключей крутяться. Я сам смотрел ради интереса. Но эти ключи по большому счету просто нч. Спарсенные ими в своей стате и перенесенные в Сапу или др.

    Намного легче другой подход - смотрим трафиковые статьи, выделяем в статье ВЧ, забиваем его в Магадан или КК, парсим выдачу с "!" для каждой фразы и добавляем эти ключи непосредственно в статью. Хватит 5-6 ключей. Оптимизируем статью и выкладываем. У меня работает.

    А такие загоны с парсингом ключей под 7-8 тыщ штук, их группировка, расфасофка, это глупо. Собранные ключи таким способом просто нч они формируются за счет контента. А трафиковые ключи они есть в выдаче Вордастата сразу. Их не нужно искать. Главное знать тему статьи.

    А насчет структуры сайта я с тобой полностью согласен. Плюсую. Сам делаю сайты примерно таким же образом. Палю конкурентов + чуть чуть вордстата.
    • 3

    Спасибо сказали:

    cox(11.01.2014), Megasonic(10.01.2014), money4honey(10.01.2014),
  2. Super Moderator Аватар для TbIKBA
    • Регистрация: 04.08.2011
    • Сообщений: 2,002
    • Репутация: 1574
    • Webmoney BL: ?
    Тыква, ты говоришь собирать много ключей и тд
    Где я об этом говорю в статье?

    Я думаю, намного лучше просто спалить темы трафиковых статей у конкурентов в том же ЛИВЕ
    Я пробовал недавно спалить что-нибудь в LI, безуспешно. У всех с открытой статой закрыты ключи

    А такие загоны с парсингом ключей под 7-8 тыщ штук, их группировка, расфасофка, это глупо
    Конечно глупо, я и не призываю к этому

    А трафиковые ключи они есть в выдаче Вордастата сразу. Их не нужно искать.
    • 0
  3. Опытный Аватар для spsayapin
    • Регистрация: 21.02.2013
    • Сообщений: 300
    • Репутация: 42
    TbIKBA, ключи закрыты.. ..а точки входа? Точки входа почти всегда открыты. Там есть урлы статей по которым в эти сутки идет траф. Два три главных ключа всегда в титле и очень часто в заголовке. По поводу трафиковых ключей я имел ввиду, что если ввести "!установка !раковины", то вместе с ней в левой колонке будут как раз ключи по которым идет траф. "!установка !раковины !в !ванной" "!установка !раковины !на !кухне" и тд. только по региону МОсква можно собрать 30-40 уников в сутки с Яши. + Гугл. Ключи и там и там почти всегда совпадают. Только процент показов разный, но это больше зависит от того что Яша 55% всего трафа в Рашке.

    Странно в своем мануале кажется ты показывал именно этот способ +100500 ключей с разных источников с примером с косметикой. Поэтому я очень удивился такому подходу. Для заказчиков вполне, так как им надо показать работу, а вот с точки зрения эффективности....
    Последний раз редактировалось spsayapin; 10.01.2014 в 02:30.
    • 2

    Спасибо сказали:

    Megasonic(10.01.2014), money4honey(10.01.2014),
  4. Студент Аватар для money4honey
    • Регистрация: 16.11.2013
    • Сообщений: 88
    • Репутация: 17
    bortnovsky, попробовал рейтинг мэйла - отличный вариант, действительно хороший инструмент. мне кажется там даже больше открытых счётчиков чем в метрике
    • 0
  5. Super Moderator Аватар для TbIKBA
    • Регистрация: 04.08.2011
    • Сообщений: 2,002
    • Репутация: 1574
    • Webmoney BL: ?
    spsayapin, теперь понял Вас. Да, согласен как с поиском через открытую статистику LI - один из способов, имеет право на жизнь

    если ввести
    Суть в том, что эти ключи еще нужно найти и для новичков в этом проблема и заключается

    Да, в мануале я описывал другой способ - раньше я работал по нему, теперь немного поменял методику, думаю об обновлении мануала. В любом случае для клиентских сайтов намного быстрее парсить, чем искать вручную
    • 0
  6. Студент Аватар для money4honey
    • Регистрация: 16.11.2013
    • Сообщений: 88
    • Репутация: 17
    spsayapin, +1 за трафиковые статьи. под гугл вообще рулят, сегодня статья - завтра траф. с ливом актуально
    • 0
  7. Опытный Аватар для Bakalov
    • Регистрация: 25.04.2011
    • Сообщений: 439
    • Записей в дневнике: 5
    • Репутация: 132
    TbIKBA, ликбез гуд, но упущен очень важный момент - разбивка по страницам. Учитывая прогрессивность современных парсеров, собрать СЯ скажем из 10 000 запросов не так уж и сложно, а если это интернет-магазин, то и все 100 000 запросов запросто могут быть. Но что дальше? Вот есть у вас список из 100 000 запросов, пусть вы прочекали для них все основные значения вордстата, сняли корректность словоформы и геозависимость, но дальше надо разбить это всё по страницам? Как вы это делаете для уже существующего сайта? Банальное определение релевантной страницы по выдаче ПС дает очень низкую точность. Кроме этого если речь про интернет-магазин, то надо учитывать, что некоторые товары могут не продаваться, например вы запустили парсинг по "мобильные телефоны нокиа" и парсер собрал кучу моделей которых нет на сайте, как фильтровать? Опять по выдаче ПС? А если там будет выводиться страница листинга?
    Профессиональное продвижение сайтов в Нижнем Новгороде.
    • 1

    Спасибо сказали:

    Вальдемар(10.01.2014),
  8. Студент Аватар для money4honey
    • Регистрация: 16.11.2013
    • Сообщений: 88
    • Репутация: 17
    Цитата Сообщение от spsayapin Посмотреть сообщение
    Намного легче другой подход - смотрим трафиковые статьи, выделяем в статье ВЧ, забиваем его в Магадан или КК, парсим выдачу с "!" для каждой фразы и добавляем эти ключи непосредственно в статью. Хватит 5-6 ключей. Оптимизируем статью и выкладываем. У меня работает.
    тут как вариант просто выбрать в выдаче по вч сайт из топ 3, просмотреть его видимость в ПС, запросы которые сидят в топ5 - самые трафиковые - их парсим и определяем для них релевантные страницы с которых потом тянем трафиковые ключи.

    это вариант на тот случай если разрыв по трафику между топовым сайтом и сайтом вне топа, но с открытым счётчиком, довольно большой. рутинный, но действенный способ.
    Последний раз редактировалось money4honey; 10.01.2014 в 11:26.
    Есть вопросы по SEO? Ответы здесь
    • 0
  9. Super Moderator Аватар для TbIKBA
    • Регистрация: 04.08.2011
    • Сообщений: 2,002
    • Репутация: 1574
    • Webmoney BL: ?
    Bakalov, речь, в общем-то шла больше о информационных сайтах, не о ИМ, если вы для них собрали 10к ключей, то уже как их использовать - это отдельный вопрос, т.к 10к - слишком много все таки. Я бы из этих ключей бы выбирал по-немногу каждый день

    Банальное определение релевантной страницы по выдаче ПС дает очень низкую точность. Кроме этого если речь про интернет-магазин, то надо учитывать, что некоторые товары могут не продаваться, например вы запустили парсинг по "мобильные телефоны нокиа" и парсер собрал кучу моделей которых нет на сайте, как фильтровать? Опять по выдаче ПС? А если там будет выводиться страница листинга?
    Тут нет никакой магической кнопки "сделать всю работу"
    • 0
  10. Гуру Аватар для 3s777
    • Регистрация: 09.02.2013
    • Сообщений: 1,417
    • Репутация: 384
    • Webmoney BL: ?
    Цитата Сообщение от TbIKBA Посмотреть сообщение
    думаю об обновлении мануала
    Очень было бы хорошо, а то как то очень давно не было обновлений, а с учетом того что рынок динамичен и всегда появляется что-то новое, это не есть гуд.
    • 0
Страница 2 из 5 Первая 1234 Последняя

Похожие темы

Темы Раздел Ответов Последний пост
Вопрос по сбору семантического ядра под Google
Google 5 10.04.2013 21:00
Плюсы, минусы сервисов по сбору беков
Софт, скрипты, сервисы 15 09.01.2013 19:33
Twitter-ликбез от Twidium
Социальные сети 1 10.08.2012 16:30
Сервис по сбору и уникализации контента BlogBot
Софт, скрипты, сервисы 2 26.04.2010 18:17
Тулза по сбору всех страниц сайта
Софт, скрипты, сервисы 21 22.04.2010 14:16

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры