Валидатор Robots.txt
Проверьте текущий файл robots.txt, проверьте страницу ограничений и доступности для сканеров.
Enter the URL in the format: https://example.com/
Enter the URL in the format: https://example.com/
Программа проверки Robots.txt показывает, блокирует ли программа robots.txt сканерам Google определенные URL-адреса на вашем сайте. Например, вы можете использовать этот инструмент, чтобы проверить, может ли сканер Googlebot сканировать URL-адрес контента, который вы хотите заблокировать в поиске Google.
Если у вас нет файла robots.txt в корневом каталоге вашего сайта, сканеры поисковых систем не смогут его найти. В результате они будут считать, что им разрешено сканировать весь ваш сайт.
Google применяет ограничение на размер файла robots.txt в 500 КБ (КБ). Содержимое, превышающее максимальный размер файла, игнорируется. Можно уменьшить размер роботов.
Файл Robots.txt не требуется для веб-сайта. Если бот зайдет на ваш сайт, но у него его нет, он просто просканирует ваш сайт и проиндексирует страницы в обычном режиме. Robots.txt нужен только в том случае, если вы хотите лучше контролировать, что сканируется.