SEO: Что такое Robots.txt?

C

crystall.seo

#1
Robots.txt - текстовый файл в корневом каталоге Вашего ресурса. Понятно? - Нет! Тогда давайте разбираться, что же это всё-таки за файл. Robots.txt - это текстовый файл, который содержит инструкции и алгоритмы действия поисковых систем на Вашем сайте. Например, с помощью Robots.txt Вы можете запретить индексацию некоторых страниц, которые Вы хотели бы оградить от выдачи в поиске по той или иной причине. К примеру, Вам совсем не нужно, чтобы технические разделы ресурса индексировались поисковиком. Также, как говорилось в прошлом видео-ролике, в Robots.txt можно прописать путь к Sitemap.xml. То есть, как ни странно, файл позволяет несколько направить и скорректировать действия роботов поисковой системы на вашем сайте. С предназначением всё ясно, теперь передём к созданию. Создать файл довольно просто - в обычном блокноте, даже не меняя расширение, как в случае с Sitemap.xml. Зайдя на Ваш ресурс, первое, что увидет поисковый робот - Robots.txt. Настроить файл можно используя 2 директивы: User-Agent и Disallow. Если на Вашем сайте есть несколько зеркал, также используется директива Host; так же, как уже говорилось ранее, директива Sitemap; Crawl-Delay (подробнее о директивах в видео-уроке). Главное помнить, что именно корректная настройка файла Robots.txt крайне важна. Некорректная настройка приведёт либо к отображению страниц конфиденциального характера, либо к закрытию от индекса страниц с информацией, которую Вы бы хотели видеть в поисковой выдаче. Возникшие вопросы по созданию и настройке Robots.txt задавайте в комментариях.

[MEDIASERVICE]http://www.youtube.com/watch?v=Fx9_fpd_mC8[/MEDIASERVICE]
 
Get involved!

Here you can only see a limited number of comments. On СЕО Форум Вебмастеров you see all comments and all functions are available to you. To the thread