парсить объявления в больших масштабах, как советует Optimus Prime, новости публикуйте уникальны почаще, еще можно заказать парсинг мыл с тематических сайтов и сделать рассылку по ним, людишки начнут приходить и давать объявления, ну и ссылки нужно покупать с тематических ресурсов, обменивайтесь статьями с такими же сайтами как ваш, опять же социальные сети. Еще прогон по базе досок объявлений для доски объявлений идет в плюс. Не отчаивайтесь и не спешите, у вас все получится. На каком движке сайт делали, если не секрет?
Последний раз редактировалось buninsan; 16.10.2013 в 00:56.
mishki_svami, Коллега , Вам тут дали дельные советы. В частности массового грабинга. Но учтите, что парсить-граббить надо уник... ну по крайней мере то, что под ним понимают ПС-ы. Тут главное понять, что Вы хотите сделать из своего сайта. Под какую модель "сравнительно честного способа" отъема денег у граждан Вы стремитесь его приспособить. Вы же программист . Попробуйте сделать парсер для вэбархива. Там много уника.
treeclimber,спасибо за ответ! Подскажите, пожалуйста, какой смысл парсить веб-архив, там же уже устаревшая информация? Парсер сделать не проблема конечно, знать бы, что парсить. И насчет "отъема денег" не согласен с Вами.Модель простая: люди заходят и размещают объявления, получают информацию.
mishki_svami, про "отъем денег" - это метафора в виде цитаты из классиков . Не более того :) В вебархиве инфа разная бывает. И порою настолько "устаревшая", что ПС-ы про нее уже напрочь забыли. Но устаревшая это не значит, что не актуальная или не интересная для интернет-пользователей. Вот и лежит она в архиве и за зря пропадает. Будут ли в этих данных представлены кеи с коммерческим интересом зависит от того, что и как вы там будете искать. Я находил. Немного, но находил. > знать бы, что парсить Ну тут зависит от того сайт какой тематики вы хотите наполнить информацией. В идеале парсер вебархива должен : 1. искать тесты по списку ключевых слов 2. проверять полученные тексты на уникальность. 3. сохранять полученные тексты в удобном (структурированном) виде на диске.
Но можно и без этих опций. Эти функции можно и сторонним софтом сделать либо непосредственно , либо опосредованно через API.
Cortez, Совершенно верно. Речь именно о нем и шла. В свою очередь могу дать ссылку на платный сервис, который может вытаскивать данные из веб-архива. _http://r-tools.org Но помимо грабера там ничего более нет.