buninsan, К сожалению в строке URL обрезается до главной страницы Вроде бы вот подходящий сервис ссылка. Но платный, поэтому не могу сказать насколько подходит для решения этой задачи. Кто пользовался? Отпишитесь имеет ли смысл заливать туда деньги, или он не решает требуемую задачу.
Последний раз редактировалось Quant88; 28.03.2016 в 18:18.
Для отслеживания "просто" позиций можно использовать top-inspector.ru, при регистрации дают 60 руб. Снимает позиции каждый день, есть динамика запросов - http://prntscr.com/al2ef3. Бонусов хватает на 100 проверок за месяц, если запросов меньше то и времени больше будет для снятия.
Вопрос заключается в следующем: Как по одному и тому же запросу определить позиции отдельно взятых страниц?
Если я правильно понял что вам нужно, то выше описаны способы для тех, кто любит лишний гемор, хотя можно все сделать проще... Прелюдия: Обычными методами позиции обоих страниц не определить т.к. в выдаче обычно присутствует только одна страница для одного домена (есть исключения, но это не относится к данной задаче), но если исхитриться, то все-таки такое возможно.
Описание способа: Допустим у нас есть запрос "холодильник", в настоящий момент целевая страница domain.ru/holodilnik.html и есть вторая страница, которая так же может являться целевой. Для того, чтобы узнать на каком месте в топе может находиться вторая страница нам надо сначала исключить первую, вбиваем в строку поиска запрос "холодильник ~~ url:http://domain.ru/holodilnik.html" Получим построение выдачи без показа конкретной страницы, в результате этого если на искомом сайте есть другая релевантная страница для фразы "холодильник", то она появится в топе на определенной позиции.
На практике придется отслеживать позиции для каждой страницы с отсеиванием по пулу урлов конкурентных страниц (т.е. один ключ у нас будет выглядеть как "ключ ~~ url1 ~~ url2 ~~ urlxx"), удобство данного способа в минимуме рутины - можно использовать сервисы, а не вводить каждый запрос руками, потом можно агрегировать все данные из сервиса в одну таблицу эксель или гуглдок и уже обрабатывать эти данные как вам хочется, искать закономерности по матрице и т.д.
umarkt-stepanov@yandex.ru, Сработало, основная страница запроса не была найдена в поиске. Правда есть нюансы: Сайт настолько не в топе, что пролистав 100 страниц выдачи вручную в яндексе вторая релевантная страница так и не нашлась (возможно ее не существует, возможно она находится дальше) Делать это вручную по каждому запросу... Я просто смотрю на этот список... В общем не подскажите каким сервисом можно воспользоваться, чтобы подобное реализовать?
Будь моя воля - я бы выдал вам медаль 80 лвл за задротство, если бы такая была))
есть сервисы определения позиций до 500 результата поиска, я пользуюсь этим - функционал хорош. Сервисов, определяющих позиции сайта сразу для нескольких страниц сайта просто нет, это никому не нужно.
Возможно я не очень понятно описал метод. Вам не нужно руками перебирать всю выдачу по каждому запросу. На примере того сервиса - создаете проект, в проекте настраиваете под каждый урл отдельный список. Допустим, у нас есть 3 урл для тестирования, вбиваем все ключи для первого урл по типу "ключ ~~ url3 ~~ url2", для второго урл те же самые ключи, только с отсеиванием других урлов "ключ ~~ url1 ~~ url3", аналогично для 3 страницы "ключ ~~ url1 ~~ url2". На выходе получите 3 списка с позициями, если другой страницы в 500 не найдется, значит у вас нет целевых - тайтлы не все решают, есть и кроме них 100500 факторов, если что.
Но зачем вам это надо? Если вы хотите делать эксперимент, то это явно лучше делать на тестовом сайте по выдуманному слову - бюджет сольете гораздо меньший на те же определения позиций, да и сам эксперимент будет чище. На выдачу с реальными конкурентами влияет много факторов, которые нельзя проконтролить или даже просто определить их влияение (та же релевантность текста, например - сложно написать одинаково релевантные тексты, да и делать это на боевом сайте - выкинуть деньги на ветер, поведенческие опять же, ссылочный вес и т.д.)
А если не для эксперимента, то я бы посоветовал не заморачиваться, без разницы какая причина - оно явно того не стоит
Последний раз редактировалось umarkt-stepanov@yandex.ru; 29.03.2016 в 19:39.
Добавлю про несколько документов. В большинстве случаев, поиску не имеет смысла держать несколько страниц с одного сайта по одному запросу.
Например, можно еще помнить такой момент, что при ранжировании всегда нужно выбрать 1 ответ из 10 млрд. документов (это цифра условная). И потом - корпус документа обсчитывается не только по title, но и по содержанию. Чаще всего, при нулевой релевантности мета-заголовков, но отличному содержанию (точность/полнота), алгоритм может выбирать и такой документ, правда не на первые страницы поиска, но все же.
И потом - вряд ли получится с точностью высчитать тот же параметр для двух страниц - либо поиск их просто склеит, либо одна будет весть меньше/больше, а значит один из ответов будет релевантнее. Это вкратце, чтобы не расписывать тут простыню по принципу различных методологий взвешивания качества и ценности документа в отдельно взятых случаях.