Индексация сайта

(Ответов: 14, Просмотров: 958)
Страница 1 из 2 12 Последняя
  1. Дипломник Аватар для Wekze
    • Регистрация: 28.05.2013
    • Сообщений: 107
    • Репутация: 13
    В последнее время при создании сайтов лень возиться с Денвером, поэтому изменяю и редактирую всё прямо на серваке. Использую тексты левые(ctrl+C ctrl+V), изменяю код и т.к. ну и чтобы ПС всё это не кушали закрываю все страницы от индексации при помощи конструкции в robots.txt:
    User-agent: *
    Disallow: /
    Так вот хотелось бы узнать, как к этому относятся ПС? Нехорошие сомнения стали появляться после того, как у прошлого сайта который я пилил таким образом в Яше проиндексировалось 7 страниц(и в течении 3 месяцев эта цифра так и не выросла), а в Гугле >50. Может и совпадения может и нет, что вы думаете по этому поводу?
    Последний раз редактировалось Wekze; 04.07.2013 в 22:41.
    • 0
  2. Гуру Аватар для 3s777
    • Регистрация: 09.02.2013
    • Сообщений: 1,417
    • Репутация: 384
    • Webmoney BL: ?
    Wekze, из документации Яндекса
    Сессия начинается с закачки robots.txt сайта, если его нет, он не текстовый или на запрос робота возвращается HTTP-код отличный от '200', считается, что доступ роботу не ограничен. В самом robots.txt проверяется наличие записей, начинающихся с 'User-agent:', в них ищутся подстроки 'Yandex', либо '*' (регистр значения не имеет), причем, если обнаружено 'User-agent: Yandex', директивы для 'User-agent: *' не учитываются. Если записи 'User-agent: Yandex' и 'User-agent: *' отсутствуют, считается, что доступ роботу не ограничен.
    Т.е. по идее, каждый раз обращаясь к сайту сначала робот обращается к robots.txt, а потом уже гуляет по страницам, которые ему разрешены. Но по факту заметил, что иногда яндекс как бы обращается к старому robots.txt (как бы где-то у него закэшировался) и индексация новых открытых разделов происходит не сразу. Но это не долго. Но чтобы 3 месяца с таким я не сталкивался и думаю если 7 страинц все таки были в индексе, хотя запрет стоял полностью на индексацию, поэтому думаю дело не в этом. Но я бы лучше не закрывал сайт, а выключал на время разработки (если CMS).
    • 0
  3. Студент Аватар для Гладиолус
    • Регистрация: 17.10.2001
    • Сообщений: 95
    • Репутация: 15
    • Webmoney BL: ?
    Индексация заблокирована в robots.txt
    Непонятно зачем это делать, пусть даже временно.
    Комплексное продвижение сайтов.
    • 0
  4. Дипломник Аватар для Wekze
    • Регистрация: 28.05.2013
    • Сообщений: 107
    • Репутация: 13
    Гладиолус,чтобы пс не кушали странички с скопированным с других сайтов контентом не?
    • 0
  5. Дипломник Аватар для SamsonIT
    • Регистрация: 07.07.2012
    • Сообщений: 141
    • Репутация: 40
    Wekze, Гладиолусу не понятно зачем таким образом наполнять сайт (как и мне).
    • 0
  6. Гуру Аватар для 3s777
    • Регистрация: 09.02.2013
    • Сообщений: 1,417
    • Репутация: 384
    • Webmoney BL: ?
    Цитата Сообщение от SamsonIT Посмотреть сообщение
    зачем таким образом наполнять сайт (как и мне).
    Если я правильно понял, то ТС имеет в виду, что закрывает сайт от индексации на время его создания. Т.е. он его создает и редактирует прям на сервере, а когда сайт уже готов и наполнен первичной информацией - открывает.
    • 1

    Спасибо сказали:

    Wekze(08.07.2013),
  7. Гуру Аватар для MacLeo
    • Регистрация: 01.06.2010
    • Сообщений: 1,617
    • Записей в дневнике: 1
    • Репутация: 586
    Я всегда так делал, вообще не перевариваю все делать на локалке а потом переносить. Проблем с индексацией никогда не было...
    • 0
  8. Опытный Аватар для treeclimber
    • Регистрация: 08.06.2012
    • Сообщений: 403
    • Репутация: 47
    Цитата Сообщение от Wekze Посмотреть сообщение
    В последнее время при создании сайтов лень возиться с Денвером, поэтому изменяю и редактирую всё прямо на серваке.
    Очень рискованная практика. Хотя я вас понимаю - Денвер не всегда может смоделировать реальные условия.
    Я от него тоже отказался. Но сайт редактирую/изменяю на своем ноуте. На виртуалке. Это IMHO более соотвествует боевым условиям на хостинге. А напрямую редактировать.... Если ошибешься, то можно кучу времени потерять, восстанавливая предыдущий вариант из бэкапа.
    • 0
  9. Студент
    • Регистрация: 14.04.2011
    • Сообщений: 41
    • Репутация: 11
    Цитата Сообщение от MacLeo Посмотреть сообщение
    Я всегда так делал, вообще не перевариваю все делать на локалке а потом переносить. Проблем с индексацией никогда не было...
    я то же. даже и меняю движки. проблем не было с индексацией.
    • 0
  10. Гуру
    • Регистрация: 09.10.2011
    • Сообщений: 1,814
    • Репутация: 251
    Цитата Сообщение от Wekze Посмотреть сообщение
    Так вот хотелось бы узнать, как к этому относятся ПС?
    А как должны? Нормально относятся. И благодарны за то, что сайт отдает меньше мусора в индекс экономя машинное время.

    Цитата Сообщение от Wekze Посмотреть сообщение
    а в Гугле >50
    проверяли командой сайт? Проиндексированны скорее всего только урл страниц. Вообще гугл момет закинуть в индекс то, что закрыто в роботс(роботс у гугла управляет сканированием, а не индексированием). Для гарантированного исключения из индекса в коде страниц должен быть метатег ноиндекс.
    • 1

    Спасибо сказали:

    3s777(05.07.2013),
Страница 1 из 2 12 Последняя

Похожие темы

Темы Раздел Ответов Последний пост
Индексация сайта на Народе
Вопросы от новичков 16 06.03.2012 22:21
индексация сайта?
Вопросы от новичков 19 09.11.2011 18:25
Индексация сайта
Общие вопросы поисковой оптимизации 15 18.05.2011 19:23
Индексация сайта
Вопросы от новичков 11 29.01.2010 03:59

У кого попросить инвайт?

Вы можете попросить инвайт у любого модератора:

Информеры