robots.txt – это текстовый файл,
находящийся в корневой директории сайта, в котором записываются
специальные инструкции для поисковых роботов. Эти инструкции могут
запрещать к индексации некоторые разделы или страницы на сайте,
указывать на правильное «зеркалирование» домена, рекомендовать поисковому
роботу соблюдать определенный временной интервал между скачиванием документов
с сервера и т.д.