Определение позиций отдельных страниц интернет магазина

(Ответов: 17, Просмотров: 724)
Страница 2 из 2 Первая 12
  1. Новичок
    • Регистрация: 16.11.2015
    • Сообщений: 12
    • Репутация: 0
    buninsan,
    К сожалению в строке URL обрезается до главной страницы
    Вроде бы вот подходящий сервис ссылка. Но платный, поэтому не могу сказать насколько подходит для решения этой задачи. Кто пользовался? Отпишитесь имеет ли смысл заливать туда деньги, или он не решает требуемую задачу.
    Последний раз редактировалось Quant88; 28.03.2016 в 18:18.
    • 0
  2. Гуру Аватар для buninsan
    • Регистрация: 12.02.2012
    • Сообщений: 1,021
    • Репутация: 189
    Цитата Сообщение от Quant88 Посмотреть сообщение
    К сожалению в строке URL обрезается до главной страницы
    я загружаю в мегаиндекс список запросов, то что нужно вам пока таким не занимался
    • 0
  3. Новичок
    • Регистрация: 26.01.2016
    • Сообщений: 26
    • Репутация: 12
    Для отслеживания "просто" позиций можно использовать top-inspector.ru, при регистрации дают 60 руб. Снимает позиции каждый день, есть динамика запросов - http://prntscr.com/al2ef3.
    Бонусов хватает на 100 проверок за месяц, если запросов меньше то и времени больше будет для снятия.
    • 0
  4. Дипломник Аватар для umarkt-stepanov@yandex.ru
    • Регистрация: 27.12.2015
    • Сообщений: 202
    • Репутация: 44
    Quant88,
    Цитата Сообщение от Quant88 Посмотреть сообщение
    Вопрос заключается в следующем: Как по одному и тому же запросу определить позиции отдельно взятых страниц?
    Если я правильно понял что вам нужно, то выше описаны способы для тех, кто любит лишний гемор, хотя можно все сделать проще...
    Прелюдия: Обычными методами позиции обоих страниц не определить т.к. в выдаче обычно присутствует только одна страница для одного домена (есть исключения, но это не относится к данной задаче), но если исхитриться, то все-таки такое возможно.

    Описание способа: Допустим у нас есть запрос "холодильник", в настоящий момент целевая страница domain.ru/holodilnik.html и есть вторая страница, которая так же может являться целевой. Для того, чтобы узнать на каком месте в топе может находиться вторая страница нам надо сначала исключить первую, вбиваем в строку поиска запрос
    "холодильник ~~ url:http://domain.ru/holodilnik.html" Получим построение выдачи без показа конкретной страницы, в результате этого если на искомом сайте есть другая релевантная страница для фразы "холодильник", то она появится в топе на определенной позиции.

    На практике придется отслеживать позиции для каждой страницы с отсеиванием по пулу урлов конкурентных страниц (т.е. один ключ у нас будет выглядеть как "ключ ~~ url1 ~~ url2 ~~ urlxx"), удобство данного способа в минимуме рутины - можно использовать сервисы, а не вводить каждый запрос руками, потом можно агрегировать все данные из сервиса в одну таблицу эксель или гуглдок и уже обрабатывать эти данные как вам хочется, искать закономерности по матрице и т.д.
    • 0
  5. Новичок
    • Регистрация: 16.11.2015
    • Сообщений: 12
    • Репутация: 0
    umarkt-stepanov@yandex.ru,
    Сработало, основная страница запроса не была найдена в поиске. Правда есть нюансы:
    Сайт настолько не в топе, что пролистав 100 страниц выдачи вручную в яндексе вторая релевантная страница так и не нашлась (возможно ее не существует, возможно она находится дальше)
    Делать это вручную по каждому запросу... Я просто смотрю на этот список... В общем не подскажите каким сервисом можно воспользоваться, чтобы подобное реализовать?
    • 0
  6. Дипломник Аватар для umarkt-stepanov@yandex.ru
    • Регистрация: 27.12.2015
    • Сообщений: 202
    • Репутация: 44
    Quant88,
    Цитата Сообщение от Quant88 Посмотреть сообщение
    пролистав 100 страниц выдачи
    Будь моя воля - я бы выдал вам медаль 80 лвл за задротство, если бы такая была))

    есть сервисы определения позиций до 500 результата поиска, я пользуюсь этим - функционал хорош. Сервисов, определяющих позиции сайта сразу для нескольких страниц сайта просто нет, это никому не нужно.

    Возможно я не очень понятно описал метод. Вам не нужно руками перебирать всю выдачу по каждому запросу. На примере того сервиса - создаете проект, в проекте настраиваете под каждый урл отдельный список. Допустим, у нас есть 3 урл для тестирования, вбиваем все ключи для первого урл по типу "ключ ~~ url3 ~~ url2", для второго урл те же самые ключи, только с отсеиванием других урлов "ключ ~~ url1 ~~ url3", аналогично для 3 страницы "ключ ~~ url1 ~~ url2".
    На выходе получите 3 списка с позициями, если другой страницы в 500 не найдется, значит у вас нет целевых - тайтлы не все решают, есть и кроме них 100500 факторов, если что.

    Но зачем вам это надо? Если вы хотите делать эксперимент, то это явно лучше делать на тестовом сайте по выдуманному слову - бюджет сольете гораздо меньший на те же определения позиций, да и сам эксперимент будет чище. На выдачу с реальными конкурентами влияет много факторов, которые нельзя проконтролить или даже просто определить их влияение (та же релевантность текста, например - сложно написать одинаково релевантные тексты, да и делать это на боевом сайте - выкинуть деньги на ветер, поведенческие опять же, ссылочный вес и т.д.)

    А если не для эксперимента, то я бы посоветовал не заморачиваться, без разницы какая причина - оно явно того не стоит
    Последний раз редактировалось umarkt-stepanov@yandex.ru; 29.03.2016 в 19:39.
    • 1

    Спасибо сказали:

    Quant88(31.03.2016),
  7. Новичок Аватар для DanteS
    • Регистрация: 26.01.2016
    • Сообщений: 24
    • Репутация: 21
    Добавлю про несколько документов. В большинстве случаев, поиску не имеет смысла держать несколько страниц с одного сайта по одному запросу.

    Например, можно еще помнить такой момент, что при ранжировании всегда нужно выбрать 1 ответ из 10 млрд. документов (это цифра условная). И потом - корпус документа обсчитывается не только по title, но и по содержанию. Чаще всего, при нулевой релевантности мета-заголовков, но отличному содержанию (точность/полнота), алгоритм может выбирать и такой документ, правда не на первые страницы поиска, но все же.

    И потом - вряд ли получится с точностью высчитать тот же параметр для двух страниц - либо поиск их просто склеит, либо одна будет весть меньше/больше, а значит один из ответов будет релевантнее. Это вкратце, чтобы не расписывать тут простыню по принципу различных методологий взвешивания качества и ценности документа в отдельно взятых случаях.
    • 2

    Спасибо сказали:

    Quant88(31.03.2016), Vmir(29.03.2016),
  8. Новичок
    • Регистрация: 16.11.2015
    • Сообщений: 12
    • Репутация: 0
    Ок, я понял не высокую целесообразность этой затеи ))
    Спасибо за рекомендации и ответы.

    P.S. тех поддержка сервиса, на который я давал ссылку выше ответила что в её системе это реализовать не получится.

    P.P.S. тех. поддержка программы allsubmitter ответила что в новой версии нечто подобное будет возможно, но даты выхода ее в свет не назвали.

    :) Всем удачи!
    • 0
Страница 2 из 2 Первая 12

Похожие темы

Темы Раздел Ответов Последний пост
Определение позиций сайта
Вопросы от новичков 17 16.01.2017 19:45
Продвижение отдельных страниц в бурже
Вопросы от новичков 5 01.06.2015 21:31
Запрет индексации отдельных страниц в WordPress
WordPress 5 05.03.2015 14:08
Определение позиций сайта по геозависимым запросам с помощью программ.
Вопросы от новичков 3 06.09.2013 01:40
Инструменты - определение позиций сайта.
Обсуждение форума и ваши предложения 9 09.04.2012 05:58

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры