O arquivo robots.txt é um arquivo de texto muito simples. Sua principal função é impedir que alguns rastreadores de mecanismos de pesquisa, como o Google, rastreiem e indexem conteúdo em um site para SEO. Se você não tiver certeza se seu site ou o site do seu cliente tem um arquivo robots.txt, é fácil verificar: basta digitar example.com/robots.txt. Você encontrará uma página de erro ou uma página de formato simples.
Há diferentes maneiras de criar um arquivo robots.txt. Você pode criá-lo a partir do seu: Sistema de gerenciamento de conteúdo, computador após o qual você o carrega por meio de seu servidor web, construção manual e upload para o servidor da Web.
O primeiro arquivo que os bots do mecanismo de busca examinam é o arquivo de texto do robô. Se não for encontrado, há uma grande probabilidade de que os rastreadores não indexem todas as páginas do seu site. Esse pequeno arquivo pode ser alterado posteriormente quando você adiciona mais páginas com algumas instruções, mas certifique-se de não adicionar a página mestra à diretiva de não permissão. O Google funciona com um orçamento de rastreamento; esse orçamento é baseado no limite de escaneamento.
Um mapa do site é vital para todos os sites, pois contém informações úteis para os mecanismos de pesquisa. O mapa do site informa aos bots com que frequência você atualiza seu site, qual conteúdo ele fornece. Seu objetivo principal é notificar os mecanismos de pesquisa sobre todas as páginas do seu site que precisam ser rastreadas, enquanto o arquivo de texto robótico é para robôs de pesquisa. Ele informa aos rastreadores qual página rastrear e qual não. O mapa do site é necessário para que seu site seja indexado, mas o txt do robô não é (se você não tiver páginas que não precisem ser indexadas).