Проблемы с URL-адресами могут принести много трудностей, начиная с проблем с индексацией и заканчивая плохим ранжированием и появлением дублированного контента в пределах домена. Я бы хотел перечислить три основные проблемы с URL-адресам, которые довольно часто встречаются на сайтах, а также предложить способы их исправления.
Проблема №1: Версии URL-адресов без WWW и с WWW
Если ссылки на вашем сайте работают и с WWW и без WWW, то вес одной страницы будет делиться на две. Вместо того, чтобы получать 100% веса на одну страницу, у вас будет получатся соотношение 50/50 либо 60/40, либо какое-нибудь другое.
Особенно это будет чувствоваться в том случае, если вы будете продвигать сайт без WWW, а Яндекс или Google ошибочно посчитают основным адресом сайт с WWW (такое очень часто бывает, если не прописать директиву host в robots.txt). В результате получится, что вес естественных ссылок будет уходить на версию с www, что не есть хорошо. Чтобы это исправить, необходимо:
Определится, какой стиль URL вы хотите использовать, с WWW или без WWW.
Настройте 301 редирект, чтобы вес ссылок с той версии URL, которая вам не нравится, передавался на предпочтительную версию. Таким образом, весь вес входящих ссылок будет передан одной странице.
В Google Webmaster Tools установите выбранный стиль домена, чтобы google в результатах поиска отображал тот вариант, который вам нужен.
Убедитесь, что всякий раз, когда вы ставите ссылки на свой сайт, чтобы их стиль соответствовал тому, который вы выбрали изначально.
Проблема №2: Дубликаты главной страницы сайта
Это проблема близко связана с первой, но имеет еще более критическое значение, так как главная страница – основа любого сайта. На главную страницу можно зайти многими способами, особенно если вы забыли поставить 301 редирект с версии с WWW на версию без WWW (ну или как вам больше нравится). К примеру, на главную некоторых сайтов можно попасть 4 способами:
http://www.mysite.com
http://mysite.com
http://www.mysite.com/index.html
http://mysite.com/index.html
На каждом из 4 этих адресов одинаковое содержание, так как это одна и та же страница. Но поисковые системы считают каждую из них отдельной страницей и могут исключить из индекса не ту страницу, которую должны. Опять же, вес входящих ссылок будет распределяться таким образом, каким образом проставляют ссылки пользователи на ваш сайт. К примеру, вы выбрали вариант http://mysite.com, а яндекс по ошибке принял страницу http://www.mysite.com основной, а http://mysite.com зеркалом. В результате, в выдаче отображается сайт с www, соответственно и пользователи попадают на версию с www и если захотят оставить на вас ссылку, то она тоже будет с www. Понимаете в чем проблема?
Я даже встречал сайты, у которых главная доступна с разными расширениями (index.html, index.htm, index.php), кроме того, слеш («/») в конце тоже имеет значение.
Исправляем проблему:
Выбираем окончательный вариант домена, к примеру http://mysite.com/ и ставим на него редирект со всех других версий главной страницы.
Убедитесь, что всякий раз, когда вы ставите ссылки на свой сайт они имеют выбранный вами формат URL.
Проблема № 3: Динамические URL
Довольно интересно наблюдать, как много есть не оптимизированных интернет-магазинов с динамическими URL-адресами. Дело в том, что с динамическими URL количество дублированных страниц может быть бесконечным. :) Давайте я просто приведу пример. Все эти адреса могут привести нас к одной странице:
А что, если я начну перестраивать параметры? Мне по-прежнему будет отображаться тоже содержание, а URL-адрес будет изменяться. Вы можете себе представить, сколько веса может уйти впустую?
Так же не очень хорошо, когда страницам присваивается уникальный ID, вместо человекопонятного URL.
Исправляем проблему:
По-возможности, необходимо использовать на сайте статические (не зависящие от параметров и сессий) человекопонятные URL (ЧПУ). К примеру, гораздо лучше в плане оптимизации иметь URL такого вида: http://www.mysite.com/unique-product.html, чем такого: http://www.mysite.com/category.php?prod=123.
Установить канонический тег, который скажет поисковым системам использовать начальную версию URL. Таким образом, можно будет использовать адреса вида http://www.mysite.com/unique-product.html?param1=123¶m2=423, чтобы получать данные, но поисковые системы будут рассматривать только начальный адрес URL.
Еще лучший способ справиться с этой проблемой – выполнять сбор данных на стороне сервера с последующим перенаправлением посетителя на правильный URL-адрес после захвата данных. Происходит это следующим образом:
Посетитель нажимает на ссылку с параметрами
Посетитель попадает на искомую страницу, а сервер в этот момент записывает данные и с помощью 301 редиректа перенаправляет его на искомую страницу.
Посетитель едва замечает такого переключения, так как оно, как правило, происходит за несколько миллисекунд.
Теперь взгляните на свой сайты и проверьте, есть ли у вас какие-либо из перечисленных проблем. Если нет, значит все хорошо, если есть, то нужно это как можно быстрее исправить. Возможно, через несколько месяцев вы будете приятно удивлены неплохому приросту позиций.