Этот PHP скрипт предназначен для автоматической генерации файлов robots.txt
для списка доменов. Он позволяет настроить общие правила запрета и разрешения для роботов, а также определяет поведение для различных поисковых агентов (user-agents).
Скрипт использует массив доменов и наборы правил для создания уникальных файлов robots.txt
. Правила перемешиваются случайным образом для каждого домена, что позволяет создавать разные конфигурации для каждого сайта.
- Генерация файлов
robots.txt
: Создает файлы для каждого домена из списка. - Настройка правил: Включает общие правила запрета (
Disallow
) и разрешения (Allow
). - Настройка user-agents: Определяет поведение для различных поисковых роботов.
- Случайное перемешивание правил: Создает уникальные комбинации правил для каждого домена.
-
Клонирование репозитория: git clone https://github.com/web-inwall/bulk-robots-txt-generator-for-multiple-domains.git
-
Настройка скрипта:
- Отредактируйте массив
$domains
в скрипте, чтобы включить список доменов, для которых вы хотите создать файлыrobots.txt
. - Настройте правила запрета и разрешения в массивах
$common_rules
и$allow_rules
. - Настройте поведение для user-agents в массиве
$user_agents
.
- Запуск скрипта: php bulk-robots-txt-generator-for-multiple-domains.php