Парсинг - процесс скачивания определенных данных с сайтов с помощью автоматизированных программ и скриптов, так называемых парсеров. Зачем нужен парсинг? Да банально для того, чтобы извлечь необходимую информацию с сайтов, экономя при это время. К примеру, вам нужно спарсить несколько тысяч описаний фильмов и залить их на новый сайт. Вы же не будете делать руками, верно? Вот для этого и нужен парсинг.
Как-то спрашивали про парсер Flickr, вот и решил написать. Поиском не нашел.
Немного технической информации - используется Flickr API. Для использования API необходимо получить ключик (достаточно зарегиться на Yahoo и хорошо попрописть Flickr дать хэш). В скрипте мой хэш. Какие ограничения накладывает Фликр на количество запросов - не знаю. Если будут санкции, то зарегистрируйте себе отдельный API Key :) Также необходима либа phpFlickr.
Парсер может выводить картинки как на экран, так и писать в локальную папку. Имеется выбор размеров, задается количество необходимых картинок.
Скрипт писался в течении 10 минут, так что если будут косяки или пожелания по доделке/переделке - оставляйте в теме.
Я использую клас для поиска имаг в гугле. А вообще для реально промышленных обьёмов есть такой софт - Extrime picture finder. Парсит в о много потоков, с гугла, яхи, фликра и т.д.
То поиск в гугле, а это сразу во фликре через API. Сколько вчера качал картинки, ни разу IP ни блокнули. Закрадывается подозрение, что с этим намного попроще, чем с баном IP у гугла при частых запросах.
Кстати, а как насчет названия картинок? Это походу даст больший плюс, если их именовать ключевиками или названиями препаратов по сравнению с присваиваемыми цифровыми уникальными именами