Неделю назад взломали сайт, нашли уязвимость в одном из компонентом и залили в директорию кучу страниц, вижу резко в индексе выросло количество страниц до 4,5к.
Нашел, вычистил, удалил компонент через который проникли. Прошло 3 дня и появилось сообщение в гугле, в выдаче "Возможно, этот сайт был взломан.".
"Засланные" страницы были такого типа www.мойдомен.ru/?jn=kakayato-hernya-dly-vas
Теперь при переходе по такой ссылке идет переадресация на главную.
Я так понимаю, что это неправильно и нужно создать 404 ошибку.
Трафик с гугла резко упал. Какие действия предпринять, чтобы гугл и яндекс поскорее удалили из индекса левые страницы и гугл убрал предупреждение?
- 19.12.2014 22:10
- 19.12.2014 22:18
Знаю такую заразу. Часто встречается. Сделать в принципе что то очень сложно. Либо в вебмастер панелях гугла и яши удалять ссылки в ручную, что при 4.5 к будет очень долго, либо отправлять на 404, что тоже как вариант ничего толкового не даст, у меня провисели почти полгода и до сих пор из гугла не вылезли.
Чуть не забыл, в роботсе поставьте запрет на индексацию /?jn=*Спасибо сказали:
Optimus Prime(20.12.2014),VtopSearch(20.12.2014), - 19.12.2014 22:28
Optimus Prime, а что за движек если не секрет... снова wp?))
- 20.12.2014 01:48
Нет, Joomla
- 20.12.2014 02:02
Отдать ошибку 404 и ещё заметил что Google лучше слушается мета-тег robots, чем строку в robots.txt
В DLE вывод мета-тега robots с значением noindex, nofollow реализуется одной строкой для несуществующих страниц, если есть возможность реализовать это в Joomla и сможете это сделать, лучше такой вариант, потому как для Google robots.txt это только рекомендация и если ссылки на эти страницы уже куда-то загнаны, он будет долго их учитывать, с мета-тегом такого замечено не было. - 20.12.2014 09:27
Насчёт мета-тега и роботса не в курсе. По идее прописанное в роботсе - это правила для ПС, а не рекомендации и они их выполняют. Просто из гугла что либо удалить является настоящим испытанием. Это не яша, который сам бывает выкидывает половину страниц без причин.
- 20.12.2014 10:52
dotWizard,
Я Вам по поводу robots не только из личного опыта говорю но и из манула для веб-мастеров от Google - https://support.google.com/webmaster.../6062608?hl=ru
Мы не можем в полной мере гарантировать, что URL, перечисленные в файле robots.txt, никогда не будут сканироваться. В некоторых случаях можно применять другие методы, чтобы определенные URL нельзя было найти через поисковые системы.Команды в файлах robots.txt не являются для роботов обязательными.Если URL-адреса, заблокированные в файле robots.txt, размещены на других сайтах в Интернете, то они все же могут быть доступны для поиска и индексации. Таким образом, URL, а также другие общедоступные сведения, например текст ссылок на сайт, могут появиться в результатах поиска Google. Чтобы полностью предотвратить появление URL в результатах поиска, используйте файл robots.txt вместе с другими методами блокировки, например защитой файлов на сервере с помощью пароля или добавления в HTML-код страницы метатегов.
---------- Сообщение добавлено 10:52 ---------- Предыдущее 10:48 ----------
Ps по поводу применения мета-тегов можно почитать ещё в блоге Алаева, он считает более правильным закрытие страниц именно мета-тегом, сокращая файл robots.txt.Спасибо сказали:
dotWizard(20.12.2014), Optimus Prime(20.12.2014), - 20.12.2014 12:31
Проблемка в том, что все те страницы я удалил и при переходе по их ссылкам идет переадресация на главную. Это я к тому, что прописать теги ноуфоллов ноиндекс не получится.
- 20.12.2014 12:41
Optimus Prime,
Я не знаю Joomla, но желательно конечно убрать редирект и в коде отдачи ошибки или странице 404 добавить этот мета-тег.Спасибо сказали:
Optimus Prime(20.12.2014), - 20.12.2014 12:49
Надо покопать. Хотя никогда не возникало проблем с роботсом, все инструкции прописанные там соблюдаются ПС как часы.
И ещё одно, если вы копируете информацию, то хотя бы читайте весь текстВсё что вы перечислили выше является страховкой на случай случайного сбоя ПС. Просто у них так принято (в виду массовой озабоченности) подавать иски в суд по малейшему поводу, тем более если это не прописано в правилах. Вот и стараются избежать этого прописывая даже такие нюансы.Команды в файлах robots.txt не являются для роботов обязательными. Googlebot и другие надежные поисковые роботы следуют инструкциям файлов robots.txt, однако прочие системы могут их игнорировать. Таким образом, очень важно понимать последствия обмена информацией, блокируемой таким образом.
Насчёт сокращения robots.txt полностью согласен. Удобнее закрыть через мета-теги, но опять же не вижу ничего страшного в том, что бы всё закрывать через роботс, никаких ограничений на количество закрываемых страниц/разделов нет.
P.S. Кстати насчёт Алаева, вы не это имели в виду?Скрытый текст (вы должны войти под своим логином или зарегистрироваться и иметь 1 сообщение(ий)):У вас нет прав чтобы видеть скрытый текст, содержащийся здесь.
Там вообще управление индексированием через заголовки которые сервер отдаёт. Довольно извращённо, но зато гибко. Тем не менее инструмент отличный, но не каждому нужен.
---------- Сообщение добавлено 14:49 ---------- Предыдущее 14:44 ----------
Первое, это то что добавить метатег некуда, там создается отдельная папка. Её обычно удаляют сразу. Редирект идёт автоматом на главную.
Можете попробовать в .htaccess просто редирект по маске отправить на 404, быстрее вылетят. Сразу скажу, из яши такие страницы вылетают быстро, из гоши у меня до сих пор более 1500 ссылок осталось.Спасибо сказали:
Optimus Prime(20.12.2014),
Тэги топика:
Похожие темы
| Темы | Раздел | Ответов | Последний пост |
|---|---|---|---|
Взломан сайт? | Вопросы от новичков | 7 | 13.09.2014 20:06 |
Взломан сайт на вордпрессе. Пишут что сайт атакует моих визиторов. | Консультации по безопасности | 7 | 02.09.2013 17:01 |
Взломан сайт | WordPress | 14 | 06.08.2013 20:00 |
Кто знает про этот сайт sibnet.ru | Партнерские программы | 2 | 19.01.2011 10:53 |
Какой ПП этот сайт | Партнерские программы | 6 | 21.01.2010 13:55 |






