Validador Robots.txt
Valide seu arquivo robots.txt atual, verifique a página de restrição e acessibilidade para rastreadores.
Enter the URL in the format: https://example.com/
Enter the URL in the format: https://example.com/
O Robots.txt Checker mostra se o robots.txt bloqueia os rastreadores do Google de determinados URLs em seu site. Por exemplo, você pode usar essa ferramenta para verificar se o rastreador do Googlebot pode rastrear a URL do conteúdo que você deseja bloquear na Pesquisa Google.
Se você não tiver um arquivo robots.txt no diretório raiz do seu site, os rastreadores de mecanismos de pesquisa não conseguirão encontrá-lo. Como resultado, eles presumirão que têm permissão para rastrear todo o site.
O Google impõe um limite de tamanho de arquivo robots.txt de 500 KB (KB). O conteúdo que excede o tamanho máximo do arquivo é ignorado. Você pode reduzir o tamanho dos robôs.
O Robots.txt não é necessário para o site. Se um bot visitar seu site e não tiver um, ele simplesmente rastreará seu site e indexará as páginas normalmente. O Robots.txt só é necessário se você quiser ter mais controle sobre o que é escaneado.