Неплохим вариантом было бы кардинально ограничить возможность индексации страницы с загрузкой файла в роботсе , однако ведь сама страница загрузки должна успешно попасть в индекс и занимать хорошие позиции в ПС
Если я эту часть правильно понял, то именно этим занимался пару недель назад под WP. Минус подхода в том, что, как верно сказано выше,
Сообщение от Leossandro
нагромождать пользователю кучу преград , равносильно намеренному занижению своей прибыли ))
т.к. из-за этой страницы пользователи делали не 1, а 2 клика. И не факт, что все, т.к. не мониторил загрузки.
А так, делал просто:
1) В самом посте размещал кнопку "Скачать", которая вела не на файл, а на страницу-прокладку, на которой опять же была ссылка, но уже на скачивание самого файла. 2) Под каждый файл создавал 2 страницы: собственно, ту, на которую шёл трафик и саму прокладку, содержащую ссылку. Просто сделал в WP отдельный шаблон страницы с нужным видом (Под "прокладку"). 3) Потом единожды создал ещё одну страницу (С обычным шаблоном, как и на всём сайте) дал ей имя (К примеру, download). 4) Странице-прокладке из п.2 назначал родительскую страницу из п.3
В итоге, получалось, что страничка, содержащая в себе ссылку на скачивание имела вид site.ru/download/page-name, после чего просто прописал в robots.txt запрет на индексацию: Disallow: /download/*
Как-то так. За время работы этого метода одно могу сказать: страницы в индекс Яндекса не попали. А вот Гугл парочку слопал, но это он может :) Впрочем, сейчас решил от этого метода отказаться, т.к. трафа с Яндекса у меня в любом случае около 11%, а каждый раз создавать несколько страниц ради туманной перспективы влом - Гугл трафик даёт, и хорошо. И потом, где-то читал, что сайты банят вручную, просматривая ТОПы, так что тут вряд ли спасёт какой-то метод. Но это уже моё ИМХО :) Если всё вышесказанное мимо темы - пардоньте уж)
т.к. из-за этой страницы пользователи делали не 1, а 2 клика. И не факт, что все, т.к. не мониторил загрузки.
А так, делал просто:
1) В самом посте размещал кнопку "Скачать", которая вела не на файл, а на страницу-прокладку, на которой опять же была ссылка, но уже на скачивание самого файла. 2) Под каждый файл создавал 2 страницы: собственно, ту, на которую шёл трафик и саму прокладку, содержащую ссылку. Просто сделал в WP отдельный шаблон страницы с нужным видом (Под "прокладку"). 3) Потом единожды создал ещё одну страницу (С обычным шаблоном, как и на всём сайте) дал ей имя (К примеру, download). 4) Странице-прокладке из п.2 назначал родительскую страницу из п.3
В итоге, получалось, что страничка, содержащая в себе ссылку на скачивание имела вид site.ru/download/page-name, после чего просто прописал в robots.txt запрет на индексацию: Disallow: /download/*
Как-то так. За время работы этого метода одно могу сказать: страницы в индекс Яндекса не попали. А вот Гугл парочку слопал, но это он может :) Впрочем, сейчас решил от этого метода отказаться, т.к. трафа с Яндекса у меня в любом случае около 11%, а каждый раз создавать несколько страниц ради туманной перспективы влом - Гугл трафик даёт, и хорошо. И потом, где-то читал, что сайты банят вручную, просматривая ТОПы, так что тут вряд ли спасёт какой-то метод. Но это уже моё ИМХО :) Если всё вышесказанное мимо темы - пардоньте уж)
Нет описанный вами способ не имеет ничего общего с моим , так как вы просто создаете дополнительную страницу на которой все же отдаете ссылку в html формате - которую все так же хорошо могут проиндексировать боты , и если в конечном файле вирус то адрес сайта откуда скачан архив или файл запоминается историей браузера пользователя откуда затем передается в лабораторию антивирусов. Смысл не в том что бы создать дополнительные страницы и закрыть их от индексирования , а в том что бы отдавать файл таким образом - какой еще не научились разбирать , понимать ПС и антивирусы...