buninsan,
К сожалению в строке URL обрезается до главной страницы
Вроде бы вот подходящий сервис ссылка. Но платный, поэтому не могу сказать насколько подходит для решения этой задачи. Кто пользовался? Отпишитесь имеет ли смысл заливать туда деньги, или он не решает требуемую задачу.
Определение позиций отдельных страниц интернет магазина
(Ответов: 17, Просмотров: 1068)
- 28.03.2016 16:56Новичок


- Регистрация: 16.11.2015
- Сообщений: 13
- Репутация: 0
Последний раз редактировалось Quant88; 28.03.2016 в 18:18.
- 28.03.2016 17:05
- 28.03.2016 17:25Новичок

- Регистрация: 26.01.2016
- Сообщений: 26
- Репутация: 12
Для отслеживания "просто" позиций можно использовать top-inspector.ru, при регистрации дают 60 руб. Снимает позиции каждый день, есть динамика запросов - http://prntscr.com/al2ef3.
Бонусов хватает на 100 проверок за месяц, если запросов меньше то и времени больше будет для снятия. - 29.03.2016 11:00
Quant88,
Если я правильно понял что вам нужно, то выше описаны способы для тех, кто любит лишний гемор, хотя можно все сделать проще...
Прелюдия: Обычными методами позиции обоих страниц не определить т.к. в выдаче обычно присутствует только одна страница для одного домена (есть исключения, но это не относится к данной задаче), но если исхитриться, то все-таки такое возможно.
Описание способа: Допустим у нас есть запрос "холодильник", в настоящий момент целевая страница domain.ru/holodilnik.html и есть вторая страница, которая так же может являться целевой. Для того, чтобы узнать на каком месте в топе может находиться вторая страница нам надо сначала исключить первую, вбиваем в строку поиска запрос
"холодильник ~~ url:http://domain.ru/holodilnik.html" Получим построение выдачи без показа конкретной страницы, в результате этого если на искомом сайте есть другая релевантная страница для фразы "холодильник", то она появится в топе на определенной позиции.
На практике придется отслеживать позиции для каждой страницы с отсеиванием по пулу урлов конкурентных страниц (т.е. один ключ у нас будет выглядеть как "ключ ~~ url1 ~~ url2 ~~ urlxx"), удобство данного способа в минимуме рутины - можно использовать сервисы, а не вводить каждый запрос руками, потом можно агрегировать все данные из сервиса в одну таблицу эксель или гуглдок и уже обрабатывать эти данные как вам хочется, искать закономерности по матрице и т.д. - 29.03.2016 12:07Новичок


- Регистрация: 16.11.2015
- Сообщений: 13
- Репутация: 0
umarkt-stepanov@yandex.ru,
Сработало, основная страница запроса не была найдена в поиске. Правда есть нюансы:
Сайт настолько не в топе, что пролистав 100 страниц выдачи вручную в яндексе вторая релевантная страница так и не нашлась (возможно ее не существует, возможно она находится дальше)
Делать это вручную по каждому запросу... Я просто смотрю на этот список... В общем не подскажите каким сервисом можно воспользоваться, чтобы подобное реализовать? - 29.03.2016 19:35
Quant88,
Будь моя воля - я бы выдал вам медаль 80 лвл за задротство, если бы такая была))
есть сервисы определения позиций до 500 результата поиска, я пользуюсь этим - функционал хорош. Сервисов, определяющих позиции сайта сразу для нескольких страниц сайта просто нет, это никому не нужно.
Возможно я не очень понятно описал метод. Вам не нужно руками перебирать всю выдачу по каждому запросу. На примере того сервиса - создаете проект, в проекте настраиваете под каждый урл отдельный список. Допустим, у нас есть 3 урл для тестирования, вбиваем все ключи для первого урл по типу "ключ ~~ url3 ~~ url2", для второго урл те же самые ключи, только с отсеиванием других урлов "ключ ~~ url1 ~~ url3", аналогично для 3 страницы "ключ ~~ url1 ~~ url2".
На выходе получите 3 списка с позициями, если другой страницы в 500 не найдется, значит у вас нет целевых - тайтлы не все решают, есть и кроме них 100500 факторов, если что.
Но зачем вам это надо? Если вы хотите делать эксперимент, то это явно лучше делать на тестовом сайте по выдуманному слову - бюджет сольете гораздо меньший на те же определения позиций, да и сам эксперимент будет чище. На выдачу с реальными конкурентами влияет много факторов, которые нельзя проконтролить или даже просто определить их влияение (та же релевантность текста, например - сложно написать одинаково релевантные тексты, да и делать это на боевом сайте - выкинуть деньги на ветер, поведенческие опять же, ссылочный вес и т.д.)
А если не для эксперимента, то я бы посоветовал не заморачиваться, без разницы какая причина - оно явно того не стоитПоследний раз редактировалось umarkt-stepanov@yandex.ru; 29.03.2016 в 19:39.
Спасибо сказали:
Quant88(31.03.2016), - 29.03.2016 21:12
Добавлю про несколько документов. В большинстве случаев, поиску не имеет смысла держать несколько страниц с одного сайта по одному запросу.
Например, можно еще помнить такой момент, что при ранжировании всегда нужно выбрать 1 ответ из 10 млрд. документов (это цифра условная). И потом - корпус документа обсчитывается не только по title, но и по содержанию. Чаще всего, при нулевой релевантности мета-заголовков, но отличному содержанию (точность/полнота), алгоритм может выбирать и такой документ, правда не на первые страницы поиска, но все же.
И потом - вряд ли получится с точностью высчитать тот же параметр для двух страниц - либо поиск их просто склеит, либо одна будет весть меньше/больше, а значит один из ответов будет релевантнее. Это вкратце, чтобы не расписывать тут простыню по принципу различных методологий взвешивания качества и ценности документа в отдельно взятых случаях. - 31.03.2016 16:54Новичок


- Регистрация: 16.11.2015
- Сообщений: 13
- Репутация: 0
Ок, я понял не высокую целесообразность этой затеи ))
Спасибо за рекомендации и ответы.
P.S. тех поддержка сервиса, на который я давал ссылку выше ответила что в её системе это реализовать не получится.
P.P.S. тех. поддержка программы allsubmitter ответила что в новой версии нечто подобное будет возможно, но даты выхода ее в свет не назвали.
:) Всем удачи!
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Определение позиций сайта | Вопросы от новичков | 17 | 16.01.2017 18:45 |
Продвижение отдельных страниц в бурже | Вопросы от новичков | 5 | 01.06.2015 21:31 |
Запрет индексации отдельных страниц в WordPress | WordPress | 5 | 05.03.2015 13:08 |
Определение позиций сайта по геозависимым запросам с помощью программ. | Вопросы от новичков | 3 | 06.09.2013 01:40 |
Инструменты - определение позиций сайта. | Обсуждение форума и ваши предложения | 9 | 09.04.2012 05:58 |



