Здравствуйте, уважаемые оптимизаторы. Подскажите пожалуйста сервис для создания карты сайта, который учитывает правила, прописанные в robots.txt Необходимо для интернет-магазина, у которого: - имеет около 500 позиций; - сделан на 1c-bitrix; - регулярно пополняется/добавляется 20% позиций. Главное в сервисе, чтобы был учет запретов в robots, автоматизация создания карты сайта через определенный период не требуется. Просто много различных фильтров, поэтому без учета robots.txt в карте сайта появляется 5000 страниц вместо 500. Спасибо.
Последний раз редактировалось judgin74; 13.03.2013 в 16:38. Причина: добавление информации
Плагинов для WP уйма. Не все работают прилично, но выбор все равно есть. ИМХО, если сайт обновляется часто, а это важно в борьбе за позиции, стоит искать наиболее гибкий плагин-создатель карты сайта.
Конечно проще использовать плагины. Но они действительно не все работают хорошо. Для небольших сайтов и если у Вас хороший интернет советую программу Xenu. Хороша тем, что не только может сделать сайтмап, но и покажет проблемные урл типа 404 и тд. Помогает вычищать ДЛЕ шаблоны от левых ссылок :) Одна вещь только не нравится. Ссылки закрытые в роботс добавляет. Правда может я не совсем разобрался.