Den robots.txt fil er en virkelig simpel tekstfil. Dets vigtigste funktion er at forhindre nogle søgemaskinecrawlere som Google i at gennemgå og indeksere indhold på et websted til SEO. Hvis du ikke er sikker på, om dit websted eller din klients websted har en robots.txt fil, er det nemt at kontrollere: bare skriv example.com/robots.txt. Du finder enten en fejlside eller en almindelig formatside.
Der er forskellige måder at oprette en robots.txt fil på. Du kan oprette det fra din: Content Management System, Computer, hvorefter du uploader det via din webserver, Manuel build og upload til Webserver.
Den første fil, som søgemaskinens bots ser på, er robotens tekstfil, hvis den ikke findes, så er der stor sandsynlighed for, at crawlerne ikke indekserer alle siderne på dit websted. Denne lille fil kan ændres senere, når du tilføjer flere sider med lidt instruktioner, men sørg for at du ikke føjer mastersiden til direktivet om fravigelse. Google kører på et gennemsøgningsbudget; dette budget er baseret på scanningsgrænsen.
Et sitemap er afgørende for alle websteder, da det indeholder nyttige oplysninger til søgemaskiner. Sitemap fortæller bots, hvor ofte du opdaterer dit websted, hvilket indhold dit websted giver. Hovedformålet er at underrette søgemaskiner om alle de sider på dit websted, der skal gennemgås, mens robotiktekstfilen er til søgerobotter. Det fortæller crawlerne, hvilken side de skal gennemgå, og hvilken ikke skal. Sitemap er nødvendigt for at dit websted skal indekseres, men robotens txt er ikke (hvis du ikke har sider, der ikke skal indekseres).