RiveSolutions SEO Spider - программа для проведения технического аудита сайта. Бета-тест.

(Ответов: 2, Просмотров: 154)
  1. Новичок
    • Регистрация: 18.06.2018
    • Сообщений: 3
    • Репутация: 0
    Коллеги, здравствуйте!
    Я разработчик команды RiveSolutions Team.
    Представляю вашему вниманию программу RiveSolutions SEO Spider.
    Сейчас проходит бета тестирование программы. Время бета тестирования неопределенно.
    Это значит, что вы можете абсолютно бесплатно использовать программу со всем имеющимся функционалом.
    Но вы можете поддержать нас как разработчиков, оформив предзаказ на 2 года вперед за 100$.
    Также мы надеемся на то, что вы будете оставлять отзывы и предлагать свои улучшения.

    И так, далее список с кратким описанием основных возможностей программы.

    Основные возможности:
    • Ресурсы сайта - на странице "Все ресурсы" проводится разбиение ссылок по типам ресурсов (html, css, js, image, flash, video, images и т.д.), а также разбиение на внутренние и внешние ресурсы.
    • Обновление страниц - есть возможность обновления данных страниц, чтобы динамически просматривать внесенные вами изменения прямо в процессе анализа сайта!
    • Создание XML карты сайта.
    • Экспорт в excel в один клик.
    • Сохранение состояния анализа сайта для продолжения анализа с той же точки!
    • В программе есть уникальная возможность создания PDF отчета о проведенном техническом анализе сайта.

    В программе все данные представлены в виде фильтров.
    Это очень удобное разбиение анализируемых параметров.
    Каждый фильтр отображает страницы, как группу, например "Дубликаты title" - в этом фильтре будет собрана группа ссылок, дублирующих значение тега "title".
    Каждый фильтр можно экспортировать в excel для составления ТЗ технарям по дальнейшей работе с сайтом в один клик.

    Список анализируемых параметров:

    • URL - адрес страницы
    • Битые ссылки - поиск битых ссылок с кодом ответа 4хх.
    • Проблемы сервера - поиск ссылок с кодом ответа 5хх.
    • LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
    • Ответ – все коды состояния HTTP в ответе сервера.
    • Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
    • Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
    • Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице. Добавлен для справки, т.к. гугл и яндекс не используют его.
    • Редиректы - определяется редирект со страницы, их количество, выводится адрес редиректа, а также происходит обработка страницы редиректа.
    • Заголовки (H1) - количество заголовков первого уровня, а также их пропуск и дубликаты.
    • Заголовки (H2) - количество заголовков второго уровня, а также их пропуск и дубликаты.
    • Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
    • Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
    • Внутренние ссылки – количество ссылок с конкретной страницы на сканируемый сайт.
    • Внешние ссылки – количество ссылок с конкретной страницы на другие сайты.
    • Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
    • Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
    • Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".
    • Пропуск Title – определяются группы страниц с отсутствующим или пустым тегом "title".
    • Пропуск Description – определяются группы страниц с отсутствующим или пустым мета-тегом "description".
    • Пропуск Keywords – определяются группы страниц с отсутствующим или пустым мета-тегом "keywords".
    • Несколько Title – определяются группы страниц с наличием 2 и более тегов "title".
    • Несколько Description – определяются группы страниц с наличием 2 и более мета-тегов "description".
    • Несколько Keywords – определяются группы страниц с наличием 2 и более мета-тегов "keywords".
    • Регулировка длины - можно регулировать длину title, desciption, keywords, h1, h2, атрибут alt изображений.
    • Битые изображения - поиск и выделение битых изображений.
    • Атрибут alt изображений - поиск изображений с пустым или отсутствующим атрибутом alt.
    • Meta refresh - определяется наличие meta refresh тега на страницах сайта.
    • Фреймы - определяется наличие фреймов на страницах сайта.

    Закрытые от индексации страницы.
    В программе имеются фильтры, в которых собраны все ссылки на страницы, закрыте от индексации по определенному критерию.

    Вот эти критерии:
    • robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
    • Meta Robots - по наличию мета-тега "robots" определяется доступность для индексации страницы. А также разрешен переход по ссылкам на ней или нет.
    • X-Robots-Tag - аналогично Meta Robots, но определение идет на основе заголовка ответа сервера.
    • rel="nofollow" - по атрибутам тега "a" определяется доступность для индексации ссылки на страницу поисковыми системами.

    Основные настройки.

    Настройки краулера:
    • Вкл/выкл переход по внешним ссылкам.
    • Вкл/выкл переход по внутренним nofollow ссылкам.
    • Вкл/выкл переход по внешним nofollow ссылкам.
    • Вкл/выкл учет canonical страниц.
    • Вкл/выкл переход по адресам поддоменов.
    • Анализ страниц за пределами стартовой папки - помогает ограничить круг ссылок для анализа. Например если вам нужно анализировать ссылки только в определенной папке.
    • Выбор робота, правилам которого следовать при учете robots.txt и meta robots.
    • Вкл/выкл проверку изображений.
    • Вкл/выкл проверку CSS.
    • Вкл/выкл проверку JavaScript.

    Отключение анализируемых параметров приведет к ускорению процесса анализа сайта.

    Настройки паузы между запросами:
    На некоторых сайтах есть защита от частых запросов. При которых включается блокировка.
    На этот счет предусмотрено задание паузы между запросами, которая задается в виде диапазона.
    Например от 1 секунды до 10 секунд.
    Пауза каждый раз будет выбираться случайно для эмуляции человеческого поведения.

    Настройки профиля вашей компании:
    • Есть возможность задать имя вашей компании, ее email и адрес вашей компании.
    • Эти данные будут фигурировать как подпись для сгенерированного вами PDF отчета об аудите, который обычно показывают заказчику.
    • Этот данные будут служить визитной карточкой для ваших клиентов.

    Настройки лимитов:
    • Максимальная длина ссылки для краулинга - краулер не станет переходить по ссылкам длиннее указанного числа символов. (в разработке)
    • Ограничение количества ссылок для загрузки - краулер не станет загружать больше указанного числа ссылок с сайта. (в разработке)
    • Максимальный таймаут - краулер будет обрывать соединение для загрузки ссылок, превышающие заданный в миллисекундах таймаут.
    • Максимальное количество цепочки редиректов - краулер не станет переходить по цепочке редиректов превышающие указанное число.
    • Максимальное количество ссылок на одной странице - страницы с превышающим заданным вами числом будут попадать в фильтр "Слишком много ссылок на одной странице".

    Настройки параметров размера/длины:
    • Минимальная/максимальная длина description - ссылки меньше заданной длины попадут в фильтр "Слишком короткие Meta Description", ссылки превышающие заданную длину попадут в фильтр "Слишком длинные Meta Description".
    • Минимальная/максимальная длина title - ссылки меньше заданной длины попадут в фильтр "Слишком короткие title", ссылки превышающие заданную длину попадут в фильтр "Слишком длинные title".
    • Максимальная длина H1 - ссылки больше заданной длины попадут в фильтр "Слишком длинные H1".
    • Максимальная длина H2 - ссылки больше заданной длины попадут в фильтр "Слишком длинные H2".
    • Максимальный размер страницы в киллобайтах - страницы превышающие заданное число будут попадать в фильтр "Страницы больше N кб". (в разработке)
    • Максимальный размер изображения в киллобайтах - изображения превышающие заданное число будут попадать в фильтр "Изображения больше N кб". (в дорабатывается)
    • Максимальная длина alt атрибута изображения - изображения, где атрибут alt превышает заданное макс. значение попадают в фильтр "Изображения с длинным alt атрибутом".

    Для каждого из этих критериев вы можете задать собственные значения и видеть в выдаче ссылки на страницы, выходящие за рамки заданного вами диапазона.

    Настройки прокси:
    • Есть возможность использовать прокси для краулинга сайта.
    • Поддерживаются прокси с авторизацией. Можно использовать, в случае, если вас все же заблокировали за частые запросы.

    Настройки User Agent:
    • Можно настроить User Agent как мобильный, так и десктопный.
    • Есть заранее определенные строки для User Agent.

    У нас есть онлайн доска с известными проблемами, а также фичами, которые находятся в процессе разработке.
    Там вы можете видеть, над чем идет работа. А также рекомендовать нам ваши улучшения.
    Мы открыты и слушаем всех, возможно, что именно ваши улучшения будут реализованы и вы увидите их воплощение в на реальном примере.
    Доска находится здесь: https://trello.com/b/6yoC35b0/rivesolutions-seospider

    Советы по улучшению можете оставлять сюда:
    1. apugachev@rivesolutions.com, pugachev.andrey.work@gmail.com
    2. писать из программы через окно фидбека: Помощь => Отправить отзыв.
    3. вконтакте: https://vk.com/id51469449
    4. по skype: andrascii

    Скачать программу можно на сайте http://rivesolutions.com

    А также и по прямым ссылкам:
    OS Windows 7 x64 и старше: http://rivesolutions.com/downloads/w...er-offline.exe
    OS Windows 7 x86 и старше: http://rivesolutions.com/downloads/w...er-offline.exe

    Будущий функционал и функционал в разработке:
    • перевод на русский язык (в активной разработке, будет в скором времени).
    • поиск по фрагментам кода на страницах сайта.
    • возможность задания цвета для разных проблемных критериев сайта, вы сможете в списке всех страниц сайта сразу увидеть искомый параметр. Это будет удобным дополнением к фильтрам.
    • древовидное отображение сайта.
    • поле для поиска конкретных страниц.
    • ну и конечно исправление багов, крашей и прочих недоработок.
    Миниатюры resources_links_to_this_page.jpg   feedback_window.jpg   duplicates_title.jpg   crawler_settings.jpg   pdf_report.jpg  

    • 0
  2. Новичок
    • Регистрация: 18.06.2018
    • Сообщений: 3
    • Репутация: 0
    Благодарю за внимание!

    ---------- Сообщение добавлено 01:10 ---------- Предыдущее 00:00 ----------

    Хочу приложить ссылки на скриншоты:








    • 0
  3. Новичок
    • Регистрация: 18.06.2018
    • Сообщений: 3
    • Репутация: 0
    Нажмите на изображение для увеличения.  Название:	update_800x350.jpg  Просмотров:	0  Размер:	66.6 Кб  ID:	24200

    Вышло обновление 1.0.3

    Изменения:

    • улучшена стабильность работы программы
    • исправлена ошибка, при которой можно было заблокировать пользовательский интерфейс нажав кнопку остановки краулинга, когда он уже остановлен
    • исправлены ошибки с декодированием страниц
    • улучшена стабильность работы "скриншотилки" страниц сайтов
    • реализована опция "Не переходить по ссылкам длиннее указанного количества символов", настройкка доступна на страницы лимитов
    • реализована опция задания максимальной длины цепочек редиректов
    • добавлен новый фильтр для страниц с цепочками редиректов длиннее указанной вами
    • добавлен фильтр для страниц превышающим таймаут заданный вами, теперь сразу можно экспортировать проблемные страницы подобного рода
    • улучшено создание дампов памяти процесса в случае краша, что поможет нам чаще вносить полезные фиксы по стабильности работы программы
    • исправлена ошибка неправильного обновления программы для версии х86
    • исправлены проблемы парсинга, из-за которых при некоторых ситуациях не "выпарсивались" заголовки страниц
    • убраны пустые колонки в таблицах, они просто не имеют смысла и отвлекают от работы
    • доделана опция Limit Search Total, теперь вы сможете задавать ограничение количества ссылок для парсинга с сайта
    • фильтры на подобии "Broken Links" экспортируются вместе со ссылками, ссылающимися на битые ссылки для удобства

    Достаточно просто запустить программу, далее программа обнаружит наличие обновлений и попросит обновиться сама.

    Не хватает в работе какой-то фичи в работе? Не стесняйся предложить её реализацию нам:

    Узнай над чем мы сейчас работаем: https://trello.com/b/6yoC35b0/rivesolutions-seospider
    • 0

Похожие темы

Темы Раздел Ответов Последний пост
Majento SiteAnalyzer - бесплатная программа для аудита и анализа сайта
Софт, скрипты, сервисы 11 14.06.2018 22:18
Народный SEO Spider - разработка программы для глубокого аудита сайтов
Софт, скрипты, сервисы 30 19.07.2017 10:57
Приглашаем в закрытый бета-тест новой ПП! Тематика – авиабилеты.
Партнерские программы 0 05.11.2015 16:57
Бета тест заработка на видео просмотрах
Реклама партнерских программ 0 10.10.2014 16:23
Набор на бета-тест софта.
Софт, скрипты, сервисы 34 04.07.2013 14:30

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры