Отраслевые решения
Отраслевые решения

Все о robots.txt

15 июля 2013 (обновлено 28 июня 2018)
93.7K
3 мин.

robots.txt – это обычный текстовый файл, размещенный на сайте и предназначенный для роботов поисковых систем. В этом файле можно указать параметры индексирования своего сайта для всех роботов поисковых систем сразу или для каждой поисковой системы по отдельности.

Все поисковые роботы при заходе на сайт в первую очередь ищут файл robots.txt.

Как создать?

Сделать файл robots.txt очень просто – создаете обычный текстовый документ, называете его robots, не ошибитесь в регистре букв или в самих буквах, название должно быть именно такое. Если не планируете запрещать индексирование страниц сайта, можно созданный файл оставить пустым. Если планируете – просто заполняете документ в соответствии с принятыми в 1994 году общими стандартами. После этого необходимо загрузить файл в корневой каталог вашего сайта, чтобы файл открывался по ссылке http://www.site.ru/robots.txt . Всё.

Что закрывать от индексации?

Вообще от индексации рекомендуется закрыть все страницы с неуникальным контентом, страницы с результатами поиска по сайту, страницы авторизации и другие технические страницы, которые не должны участвовать в поисковой выдаче.

Правила заполнения файла robots.txt

Итак, в файле robots.txt каждая команда или директива должна прописываться отдельной строкой. Число команд не ограничено.

  • Директива user-agent

    Первое, с чего следует начать заполнение файла – указать, для какого робота будут команды, для этого пишем в первой строчке:

    если ваши инструкции предназначены для роботов Яндекса:

    User-agent: yandex

    для роботов Google:

    User-agent: googlebot

    для всех роботов без исключения:

    User-agent: *

  • Директива Disallow и Allow

    Команда Disallow запрещает роботу индексировать тот или иной файл или папку.

    Например,

    запрещает индексировать файлы данной папки:

    Disallow: /cgi-bin/

    запрещает индексировать данный файл:

    Disallow: /company.html

    запрет на индексацию всего сайта:

    Disallow: /

    Проверьте ваш сайт – это одна из частых причин неиндексирования сайта.

    Важно! Неправильно указывать несколько директив в одной строчке:

    Disallow: /cgi-bin/ /cell/ /bot/

    Директива Allow наоборот – снимает запрет на индексацию некоторых файлов. Пример ее использования:

    User-agent: Yandex
    Allow: /cgi-binDisallow: /

    Такая запись в файле запрещает скачивать роботу Яндекса все, кроме страниц, начинающихся с '/cgi-bin'.

    Важно! Если в файле указали директиву, но не указали параметры для нее, значения будут такие:

    запрета на индексацию сайта нет:

    Disallow:

    весь сайт запрещен к индексации:

    Allow:

  • Директива sitemap

    Если у вас есть карта сайта в формате sitemaps.xml, укажите путь к ней в специальной директиве Sitemap (если файлов несколько, укажите все):

    Sitemap: http://site.ru/sitemaps1.xml
    Sitemap: http://site.ru/sitemaps2.xml

  • Директива Host

    Данная запись используется роботами Яндекса. Определите и укажите в директиве Host главное зеркало вашего сайта:

    Host: www.site.ru

    Часто начинающие вебмастера забывают, что сайт с www и без (www.site.ru и site.ru) являются зеркалами друг друга. Поэтому обязательно укажите, какой адрес является приоритетным с www или без.

    Директива Host не гарантирует выбор указанного главного зеркала, но Яндекс учитывает ее с высоким приоритетом.

Пример заполнения robots.txt

User-agent: *
Disallow: /administrator/
Disallow: /cache/
Disallow: /language/
Disallow: /modules/
Disallow: /plugins/
Disallow: /templates/
Disallow: /tmp/
Host: sait.ru
Sitemap: http://site.ru/sitemaps.xml

Проверка файла robots.txt

Для проверки получившегося файла можно воспользоваться Яндекс.Вебмастером. Или закажите у нас полный SEO-аудит, и мы проверим не только этот файл, но и остальные важные параметры. 

2
0
0
0
0

Сервис 1PS

Создаем и продвигаем сайты

© 1PS.RU, при полном или частичном копировании материала ссылка на первоисточник обязательна

SEO-гайд: 25 способов выйти в ТОП выдачи

В этом гайде вы найдете распространенные ошибки при продвижении сайта в интернете и узнаете, как получить наибольший эффект от SEO.

Рассматриваются три ключевых аспекта: семантика, структура и техническое состояние сайта, а также дополнительные факторы, влияющие на результаты продвижения.

Получить бонус

Популярные статьи

25 мая 2020

Полный гид по оптимизации мобильного сайта

Читать статью 18.4K 10 мин.
18 сентября 2023

Эволюция не по Дарвину: все алгоритмы Яндекса с 2007 по 2023 год

Читать статью 34.5K 18 мин.
9 апреля 2021

Как привлечь клиентов на сайт: 7 стратегий быстрого привлечения заказчиков

Читать статью 23.2K 13 мин.
24 января 2023

16 бесплатных инструментов для SEO-продвижения

Читать статью 21K 13 мин.
18 апреля 2018

Что такое карта релевантности и как составить ее правильно

Читать статью 55.4K 3 мин.
25 декабря 2023

Упали позиции сайта: почему так произошло и что с этим делать?

Читать статью 6.6K 8 мин.
20 марта 2023

Как умная камера от Яндекс облегчает жизнь пользователям

Читать статью 53.6K 4 мин.
6 февраля 2024

Инструкция, как добавить свою компанию в Яндекс.Карты

Читать статью 9.7K 4 мин.
6 мая 2020

Идеальное представление, или как Яндекс.Вебмастер радеет за красивый сниппет

Читать статью 16.9K 8 мин.
8 июля 2020

Лид-магниты на сайте: как начать притягивать клиентов

Читать статью 13.6K 16 мин.
8 апреля 2019

Сим-сим, откройся: что важно знать о ключевых запросах

Читать статью 60.4K 10 мин.
29 мая 2019

Онлайн-калькуляторы и прочие полезные фишки на сайте

Читать статью 17.9K 8 мин.

Все популярные статьи

Закрытый клуб для маркетологов и владельцев бизнеса. Оставьте запрос на вступление!

Бизнес-завтраки онлайн, эксклюзивные материалы, доступ к Обучающему центру.
Специальные предложения для своих. Бесплатно навсегда

250 000 участников сообщества каждую неделю получают письма от нас

Еженедельные полезные советы по продвижению бизнеса и эксклюзивные предложения абсолютно бесплатно – подайте заявку на вступление!

Услуги, которые могут вас заинтересовать

Полный глубокий анализ сайта, аналогов которого нет на рынке. Проверим сайт по более 40 параметрам, ошибки разметим по степени критичности.

Стоимость:
от 20 000

Любые работы по оптимизации: составление сем. ядра, настройка вебмастеров, теги Title, Description, H1-H6, файлы robots.txt, sitemap и др.

Позволяет получить естественные ссылки на сайт, улучшает видимость сайта в поисковиках.

Стоимость:
от 9 900

Смотреть все услуги Попробовать бесплатно