DofRa, это не то, я имею ввиду ссылку привязанную к определенной страничке, ну как например у скриптов сапы и других бирж ссылок.
Т.е. имеется сайт-донор, 5 страниц, у нас есть 5 анкоров, так вот эти 5 анкоров должны привязаться каждый к своей страничке, т.е. если адрес морда.ру, то 1 анкор, если морда.ру/статья1.хтмл то второй анкор, и анкоры не должны меняться при релоаде странички. Короче чтобы поисковики нормально эти ссылки воспринимали, не как мигающие, а именно сквозняк с разными анкорами )
- 22.06.2011 17:32Новичок

- Регистрация: 25.04.2010
- Сообщений: 10
- Репутация: 10
- 22.06.2011 19:26
Rellas, В зависимости от цмскаи модули поставьте с анкорами и определите раделы меню на каждый анкор и все. Не мигает и разные. Дело на 2 минуты.
- 22.06.2011 21:25Новичок

- Регистрация: 25.04.2010
- Сообщений: 10
- Репутация: 10
DofRa, это получится всего анкоров=разделов, а хочется именно если сайт 2000 страниц, то и 2000 анкоров, уж анкоров разных нагенерить не проблема. Я просто к тому, что говорят - самый лучший сквозняк это такой, в котором на каждой странице свой анкор (в противном случае ссылки склеиваются), а как это реализовать никто не пишет, или я плохо гуглю :)
- 22.06.2011 23:11
Не плохо, допустим, было бы иметь софтинку которая выдаст тебе урлы проиндексированных/непроиндексированных страницы (в зависимости что кому надо) отдельным списком для конкретно-заданого сайта в текстовом файле или в самом интерфейсе программы.
урлы непроиндексированных страниц, к примеру, можно потом залить списком в аддурилку и прогнать их...Спасибо сказали:
iRemaker(23.06.2011), lazypanther(28.06.2011), - 23.06.2011 06:46
Вот что хотелось бы предложить: нормальный граббер с WebArchive. Все те, что встречались мне либо нерабочие, либо не грабят ничего дальше главной страницы. Загвоздка при парсинге заключается вот в чем: сам WA как бы портит ссылки на страницах, т.е. в коде страницы не ссылка, а какой-то JS, который выполняется при заходе на страницу браузером.
От самого парсера требуется всего лишь собирать текстовый контент со страниц указанного сайта и сохранять их в любом формате. В идеале можно прикрутить еще и граббинг картинок, ну а совсем в идеале еще встроить чекер доменов на наличие в WebArchive...
Естественно, если страница отсутствует в архиве, парсер должен просто игнорировать ее наличие, т.е. не парсить никакие 404 и так далее. Но это уже опционально. - 23.06.2011 10:13
До этого просили скрипт голосования "Битвы брендов", не знаю давали ссылку или нет потом, но вот ссылочка на бесплатный скрипт этого голосования - _http://dmitriydenisov.com/seo/script-social-voting.html
Спасибо сказали:
- 23.06.2011 11:28
sup3rstar Подтверждаю, скрипт рабочий, сам его использую. Из плюсов:
- легко встраивается в любую CMS
- бесплатный
Минусы:
- для каждого голосования требуется редактировать код скрипта, а точнее создавать копию оного и вводить новые настройки
- подключается через iframe, некоторые антибаннеры его блокируют.
Сорри за офф.Спасибо сказали:
iRemaker(23.06.2011), - 24.06.2011 13:06
Я бы не отказался от софта по защите контента от воровства, но это очень сложно, поэтому можно написать софт который хотя бы мониторил контент на расположенность только на одном сайте...
к примеру с помощью такой бесплатной программы как адвего плагиат можно проверить текст на уникальность и если он не уникален подсвечивается фрагмент и ссылка где он расположен, а если написать софт в который можно будет добавлять текст с сайта или чтобы он автоматом загружался с сайта и при загрузке программы проверял все статьи с сайта на уникальность, и если кроме основного источника сайта с текстами найдется другой, тогда уже надо будет разбираться с нехорошим человеком...
Моя мысль типа сделать аналог http://copyscape.com/ только в виде программы, просто сайт бесплатно проверяет 10 источников...
Думаю идея не такая сложная, программы для уникальности текста есть, главное привязать к ним базу, чтобы можно было наполнять её новым текстом и запускать общую проверку...Спасибо сказали:
- 24.06.2011 15:39Banned

- Регистрация: 17.11.2010
- Сообщений: 4
- Репутация: 10
Мониторинг форумов:
ТЗ:
Скрипт сохраняет историю. Историю можно удалить только пользователю за ненадобностью. Историю можно сохранять локально.
В поле урл вводишь тему форума за которой хочешь мониторить. "Урлов-тем форумов" может быть НЕОГРАНИЧЕНО. Скрипт мониторит эту тему с определенной задержкой (задержку можно настраивать для каждой определенной "темы-урла темы", все зависит от интересности ветки), т.е. скрипт добавляет новые НЕПРОЧИТАННЫЕ сообщения в поле соответствующему "урл-тема форума", оставленные пользователями данной ветки темы. Можно выводить по 10, 20 или 50 на странице сообщений в скрипте (тонкости настройки скрипта). Все новые сообщения для каждого "урл-тема форума" в скрипте помечаются, как НЕПРОЧИТАННЫЕ. Пометить сообщение, как прочитанное может только пользователь данного скрипта. Скрипт не добавляет сообщения, которые уже подгрузил для данной "темы - урла темы" (не дублировать сообщения).
Очень удобная вещь, когда просматриваешь в день по 50 тем на форумах, а то и больше. Не нужно заходить на каждый форум в нужную ветвь, для чтения новых сообщений. Очень важна история и ее сохранение.
В дальнейшем можно сделать и для блогов.
Если кто-то встречал подобные скрипты - ОТЗОВИТЕСЬ.Последний раз редактировалось kipiwpartner; 24.06.2011 в 15:43.
Спасибо сказали:
alekivan(25.06.2011),Bonny(30.06.2011), hopomf(29.06.2011), kookul(29.06.2011),Kuper(24.06.2011), Makssss07(28.06.2011), muster(29.06.2011), nikala32(24.06.2011), r.yevgeniy(29.06.2011), seolife(27.06.2011), Slumlord(27.06.2011),Smitter(24.06.2011), sudacht(25.06.2011), vashslav(25.06.2011), warkaren(02.07.2011), - 24.06.2011 17:42
Хотелось бы простенький чеккер позиций сайтов в гугле, по нужным ключевым словам. :) Заранее спасибо :)
Спасибо сказали:
Slumlord(27.06.2011),
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Бесплатный онлайн синонимайзер "Bazzinga!" к вашим услугам! | Реклама партнерских программ | 7 | 18.06.2011 09:23 |
Супер акция "Флуд тоже труд". Новая версия. | SEO Конкурсы и акции | 160 | 19.02.2010 21:28 |
Софт для проверки "пессимизирующих" ссылок. | Софт, скрипты, сервисы | 14 | 12.09.2009 16:02 |
Интересные темы
сео форум
Можно ли найти работу на сео форуме новичку, какие шаги прелпринять для поиска работы.
сервис автоматического распознавания captcha
Тема посвящена всем вопросам, связанным с сервисами автоматического распознавания captcha и не только, читайте здесь.
послушать музыку не скачивая бесплатно
Где можно бесплатно послушать самую свежую музыку не скачивая и другая полезная информация.





