SEO: Что такое Robots.txt?

  • Автор темы Crystall.seo
  • 1581
  • Обновлено
  • 07, Sep 2012
  • #1
Robots.txt - текстовый файл в корневом каталоге Вашего ресурса.

Понятно? - Нет! Тогда давайте разбираться, что же это всё-таки за файл.

Robots.txt - это текстовый файл, который содержит инструкции и алгоритмы действия поисковых систем на Вашем сайте.

Например, с помощью Robots.txt Вы можете запретить индексацию некоторых страниц, которые Вы хотели бы оградить от выдачи в поиске по той или иной причине.

К примеру, Вам совсем не нужно, чтобы технические разделы ресурса индексировались поисковиком.

Также, как говорилось в прошлом видео-ролике, в Robots.txt можно прописать путь к Sitemap.xml.

То есть, как ни странно, файл позволяет несколько направить и скорректировать действия роботов поисковой системы на вашем сайте.

С предназначением всё ясно, теперь передём к созданию.

Создать файл довольно просто - в обычном блокноте, даже не меняя расширение, как в случае с Sitemap.xml.

Зайдя на Ваш ресурс, первое, что увидет поисковый робот - Robots.txt.

Настроить файл можно используя 2 директивы: User-Agent и Disallow.

Если на Вашем сайте есть несколько зеркал, также используется директива Host; так же, как уже говорилось ранее, директива Sitemap; Crawl-Delay (подробнее о директивах в видео-уроке). Главное помнить, что именно корректная настройка файла Robots.txt крайне важна.

Некорректная настройка приведёт либо к отображению страниц конфиденциального характера, либо к закрытию от индекса страниц с информацией, которую Вы бы хотели видеть в поисковой выдаче.

Возникшие вопросы по созданию и настройке Robots.txt задавайте в комментариях.

Crystall.seo


Рег
29 Aug, 2012

Тем
41

Постов
43

Баллов
30