Bakalov, А все же к примеру если у сайта 50 страниц то сколько нужно мне иметь страниц чтобы обойти этот сайт ?
если бы ранжирование сайтов в выдаче происходило на основе количества страница на сайте, то я бы уже сейчас все деньги вкладывал только в контент, а копирайтеры были бы самыми богатыми людьми в нашей сфере :)
количество страниц играет маленькую роль в ранжирование сайтов и занимают место среди неважных факторов
Но а все же есть примерное соотношения страниц я слышал что если к примеру на сайте конкурента 50 страниц то на ващем минимум должно быть 25 страниц ( наполненных контентом не меньше чем у конкурента ) Это верно либо заблуждение ?
Gradus, конечно, заблуждение! На вашем сайте должно быть столько страниц, сколько НУЖНО вашему бизнесу, чтобы донести важную информацию до пользователя. Если нормальному клиенту достаточно 5 страниц, а конкурент засорил свой сайт статьями про жизнь обезьян и добился 50 страниц, то проиграет он, а не вы - поисковик "увидит", что ваш сайт четче заточен вокруг основной темы. Если нормальному клиенту нужно все-таки 50 страниц, ну хотя бы потому что у вас 50 товаров, нуждающихся в нормальном описании, а вы уберете половину страниц - то проиграете вы, но не из-за поисковика, а потому, что не продадите оставшиеся 25 товаров :)
Даниэль Алиевский, Да но задача создания страниц привлечь бота на сайт ... заставить поисковик сканировать сайт ..
И получается что чем больше страниц сайта тем чаше сайт сканирует поисковик :) но вот мне не ясно как это происходит .
Вариант1) К примеру поисковик цепляет вашу отдаленную самую дальнюю страницу .. и начинает сканировать ее за тем попадает из за перелинковки на весь сайт ...( в этом варианте хорошо когда страниц много )
Вариант №2 настал тот самый день и поисковик просто к вам пришел .. тогда и 5 страниц вроде как достаточно
Даниэль Алиевский, Да но задача создания страниц привлечь бота на сайт
Ошибка в выделенной фразе. Нет задачи привлечь робота на сайт. Есть задача привлечь посетителей на сайт.
Робот в любом случае будет регулярно посещать ваш сайт, если на него есть хотя бы какие-нибудь ссылки с иных ресурсов. Если вы опасаетесь, что он будет делать это редко или плохо, вы даже можете ему помочь, скажем, сделав гугловскую карту сайта (xml). Вопрос в другом: робот должен сделать правильные "выводы" о вашем сайте. И в этом плане четко позиционированный сайт с общей тематикой страниц и логичной структурой, разумеется, выигрышнее, чем сайт, наполненный разнообразным "мусором".
Напоминаю, роботы не идиоты. В случае моего WebWarper они сами сумели отсеять "левые" страницы от страниц собственно сайта, хотя не могли знать, что адрес вроде _webwarper.net/ww/bbc.com на самом деле не относится к webwarper. Если же на вашем сайте будут такого рода материалы, вы рискуете, что робот сочтет их просто мусором и соответственно понизит рейтинг. Я в конце концов заблокировал индексацию такого "мусора" на WebWarper, хотя это, ни много ни мало, миллиарды или даже триллионы страниц якобы "на сайте".
Даниэль Алиевский, Но все таки из выше прочитанного получается чем больше страниц тем вероятней что кто то где то на форуме кинет на эту страницу ссылку :) и значит робот придет ....:)
Либо я все таки заблуждаюсь в своих выводах ? И разницы вовсе нет сколько раз робот зайдет на сайт ? То есть к примеру что робот посетит сайт 10 раз за месяц и 20 раз разницы в поисковой выдачи не будет ? Но что то мне кажется что при заходе 20 раз робота шансов подняться в выдаче больше :)