Отраслевые решения
Темная
тема
Светлая
тема
50+ нейросетей и инструментов для маркетологов и бизнеса
Скачать бесплатно
Отраслевые решения

7 распространенных ошибок при создании файла robots.txt

6 августа 2015 (обновлено 29 декабря 2021)
22.5K
4 мин.

Зачем нужен файл robots.txt?

Файл robots.txt – текстовый файл, который отвечает за индексирование сайта. Здесь вы можете указать поисковым роботам, что стоит индексировать, а что индексировать не нужно. Другими словами, с помощью этого файла вы как бы говорите поисковым системам, что вот эти страницы сайта должны попасть в поиск, а остальные – нет.

Часто при создании файла robots.txt допускаются ошибки, которые приводят к некорректной его работе или вообще делают функционирование невозможным. Давайте посмотрим на самые распространенные ошибки, к чему они приводят, а также как не допустить их у себя на сайте.

  1. Расположение файла. Файл robots.txt должен располагаться только в корневой директиве сайта. Другими словами, у него должен быть URL вот такого вида: http://site.ru/robots.txt, где site.ru – адрес вашего ресурса в сети. Если файл robots.txt располагается не в корне сайта (у него другой URL), то роботы поисковых систем его не увидят и, следовательно, будут индексировать ваш сайт полностью (включая файлы, которые индексировать нежелательно).
  2. Чувствительность к регистру. Имя файла всегда прописывается только с маленькой буквы. Правильно использовать только такой вариант «robots.txt». Неправильный вариант: http://site.ru/Robots.txt. При таком написании поисковый робот, заходя на сайт, получит 404 (страница ошибки) или 301 (переадресация) ответ сервера, а должен получить 200. Только при ответе сервера кодом 200 вы сможете управлять поисковым роботом. В остальных случаях индексация пойдет так, словно файла robots.txt нет на сайте.
  3. Открытие на странице браузера. Файл robots.txt всегда должен открываться на странице браузера. Только так роботы смогут его правильно прочитать и использовать. Здесь все зависит от настройки серверной части системы управления сайтом. В некоторых случаях по умолчанию будет предлагаться скачать файл данного типа. В такой ситуации необходимо сделать настройки на показ, или сайт будет индексироваться так, как этого захотят поисковые роботы.
  4. Ошибки запрета и разрешения. Чтобы запретить доступ робота к сайту или некоторым его разделам, правильно использовать только директиву «Disallow». Например, вы хотите запретить к индексированию все страницы с результатами поиска на сайте, прописать это в файле robots.txt надо следующим образом: «Disallow: /search/». Так вы говорите роботу: «Запрети все страницы, где будет встречаться слово поиск». Если надо запретить вообще все страницы к индексации, то прописываем директиву Disallow: /. Так вы говорите роботу: «Запретить все». Неправильно здесь ставить директиву «Allow» (разрешить). Часто пытаются прописать запрет директивы такого вида: «Allow:», как бы говоря роботам: «Разрешаю к индексации ничего». Это считается ошибкой. Если же вам надо разрешить все к индексированию, то используйте директиву вот такого вида: «Allow: /». Для роботов это означает :«Разрешить все». Если вы прописываете неверные директивы, это может привести к ошибкам в индексации и робот добавит в поиск страницы, которые там быть не должны.
  5. Совпадение директив. Часто так бывает, что при составлении файла robots.txt для одного раздела указывают сразу 2 противоположные директивы: разрешить и запретить к индексированию (Disallow: и Allow:). Так может случиться, например, если вы сначала разрешили раздел к индексированию, а спустя время добавили информацию и хотите закрыть ее от индекса. При этом просто добавляете в коде запрещающую директиву, а разрешающую не убираете. В таких ситуациях поисковые роботы отдают предпочтение директиве Allow:. Другими словами, закрытая от индекса информация все равно будет в индексе.
  6. Директива Host:. Директива Host (используется для определения главного зеркала) известна только роботу Яндекса. Проблема в том, что остальные поисковые роботы не воспринимают ее или видят как ошибочную или неизвестную. Если вы ее используете в файле, то лучше определить двух ботов: все и боты Яндекса. Для Яндекса уже прописать директиву Host:. Если задать такую директиву для всех, то во многих вебмастерах это будет восприниматься как ошибка. Вот как прописать правильно для бота Яндекса:

    User-Agent: Yandex
    Host: site.ru

  7. Директива Sitemap:. Файл Sitemap: показывает роботам, какие есть страницы на сайте. С его помощью поисковики узнают обо всех страницах вашего ресурса. Частая ошибка вебмастеров в том, что файл sitemap.xml располагают не в корне сайта, в то время как местоположение файла Sitemap очень важно. Оно определяет набор URL-адресов, которые можно включить в этот файл.

    Например, файл Sitemap, расположенный в каталоге (вот так выглядит URL в этом случае http://primer.ru/catalog/sitemap.xml), может включать любые URL-адреса, начинающиеся с http://primer.ru/catalog/..., но не должен включать URL-адреса, начинающиеся, скажем, с http://primer.ru/images/...

    Если вы располагаете неверно файл Sitemap:, то роботы неверно определят количество страниц вашего сайта, и они не попадут в индекс.

Итак, в качестве вывода запомните: файл robots.txt необходим для вашего сайта, если вы хотите, чтобы поисковые системы его индексировали и делали это так, как нужно вам. Но при этом он должен быть составлен грамотно, без ошибок. В противном случае вы рискуете получить неверную индексацию сайта.

Если возникли сложности с прописанием файла robots.txt, вы можете заказать его у наших специалистов.

0
0
0
0
0

Екатерина Иова

SMM-специалист

© 1PS.RU, при полном или частичном копировании материала ссылка на первоисточник обязательна

SEO-гайд: 25 способов выйти в ТОП выдачи

В этом гайде вы найдете распространенные ошибки при продвижении сайта в интернете и узнаете, как получить наибольший эффект от SEO.

Рассматриваются три ключевых аспекта: семантика, структура и техническое состояние сайта, а также дополнительные факторы, влияющие на результаты продвижения.

Получить бонус

Популярные статьи

3 марта 2025

Продвижение сайта в 2025: как раскрутить сайт быстро и бесплатно

Читать статью 507.3K 20 мин.
4 октября 2024

Яндекс.Вордстат: инструкция по применению

Читать статью 333.9K 8 мин.
20 октября 2025

Как проверить позиции своего сайта: обзор сервисов

Читать статью 111.1K 14 мин.
12 марта 2025

Яндекс Вебмастер: инструкция по применению

Читать статью 66.8K 16 мин.
3 февраля 2025

Что такое 301 редирект и как его правильно настроить

Читать статью 32.4K 12 мин.
21 мая 2025

152-ФЗ о персональных данных с изменениями на 2025 – полный гайд

Читать статью 17.8K 20 мин.
9 июня 2025

Нейросеть спешит на помощь: как работает генеративный поиск

Читать статью 4.6K 6 мин.
21 января 2025

Локальное SEO в Яндексе: стратегии эффективного продвижения в регионах в 2025 году

Читать статью 4.3K 9 мин.
5 августа 2024

Что такое семантическое ядро и как его правильно составить

Читать статью 42.1K 12 мин.
24 июля 2024

SEO оптимизация сайта бесплатно: полная пошаговая инструкция

Читать статью 41.9K 9 мин.
25 декабря 2024

Эффект от SEO-сопровождения: чего ждать и в какие сроки?

Читать статью 19.3K 7 мин.
6 февраля 2024

Инструкция, как добавить свою компанию в Яндекс.Карты

Читать статью 13K 4 мин.
25 октября 2024

Черное SEO, которое убивает, или какие ошибки в продвижении сайта вам мешают

Читать статью 13K 10 мин.
7 июня 2024

Как найти и устранить битые ссылки на сайте

Читать статью 11.7K 8 мин.
5 июля 2024

Ключевые методы исследования рынка: 10 способов изучить свою нишу

Читать статью 10.5K 5 мин.
28 августа 2024

SEO-сопровождение сайта: кому это выгодно?

Читать статью 10.5K 5 мин.
2 апреля 2024

20 расширений Google Chrome в помощь интернет-маркетологу, SEO-специалисту и дизайнеру

Читать статью 7.2K 5 мин.
4 мая 2023

Как установить удаленные банковские приложения на iPhone: 2 проверенных способа

Читать статью 79.5K 5 мин.
31 мая 2022

Обзор сервиса Яндекс.Услуги: что это такое и как он работает

Читать статью 87.2K 5 мин.
5 апреля 2024

Пошаговое руководство, как вывести сайт на Tilda в топ поисковых систем

Читать статью 6.5K 5 мин.
14 февраля 2024

24 способа увеличить посещаемость сайта

Читать статью 5K 7 мин.

Все популярные статьи

Закрытый клуб для маркетологов и владельцев бизнеса. Оставьте запрос на вступление!

Бизнес-завтраки онлайн, эксклюзивные материалы, доступ к Обучающему центру.
Специальные предложения для своих. Бесплатно навсегда

250 000 участников сообщества каждую неделю получают письма от нас

Еженедельные полезные советы по продвижению бизнеса и эксклюзивные предложения абсолютно бесплатно – подайте заявку на вступление!

Услуги, которые могут вас заинтересовать

Регулярное SEO-продвижение с фиксированной оплатой за месяц. Полностью поменяли подход к SEO, чтобы вы увидели результат x8.

Стоимость:
от 69 400

Позволяет получить естественные ссылки на сайт, улучшает видимость сайта в поисковиках.

Стоимость:
-20% до 31 январяот 8 400 от 10 500

Привлечем новых клиентов текстами! Напишем качественные статьи, промаркируем их, разместим на сторонних площадках – вы получите большие охваты, рост узнаваемости и трафика на сайт.

Стоимость:
от 38 500

Смотреть все услуги Попробовать бесплатно