Fișierul robots.txt este un fișier text foarte simplu. Funcția sa principală este de a împiedica unele crawlere ale motoarelor de căutare, cum ar fi Google, să acceseze cu crawlere și să indexeze conținut pe un site web pentru SEO. Dacă nu sunteți sigur dacă site-ul dvs. web sau site-ul clientului dvs. are un fișier robots.txt, este ușor de verificat: trebuie doar să tastați example.com/robots.txt. Veți găsi fie o pagină de eroare, fie o pagină de format simplu.
Există diferite moduri de a crea un fișier robots.txt. Îl puteți crea din: Sistemul de gestionare a conținutului, Computer după care îl încărcați prin serverul dvs. web, Construiți manual și încărcați pe Webserver.
Primul fișier la care se uită roboții motorului de căutare este fișierul text al robotului, dacă nu este găsit, atunci există o mare probabilitate ca crawler-urile să nu indexeze toate paginile site-ului dvs. Acest fișier mic poate fi modificat mai târziu atunci când adăugați mai multe pagini cu câteva instrucțiuni, dar asigurați-vă că nu adăugați pagina principală la directiva de interzicere. Google rulează pe un buget de accesare cu crawlere; acest buget se bazează pe limita de scanare.
Un sitemap este vital pentru toate site-urile web, deoarece conține informații utile pentru motoarele de căutare. Harta site-ului le spune roboților cât de des actualizați site-ul dvs. web, ce conținut oferă site-ul dvs. Scopul său principal este de a notifica motoarele de căutare cu privire la toate paginile de pe site-ul dvs. care trebuie accesate cu crawlere, în timp ce fișierul text robotică este destinat roboților de căutare. Ea spune crawler-urilor ce pagină să se târască și care nu. Harta site-ului este necesară pentru ca site-ul dvs. să fie indexat, dar txtul robotului nu este (dacă nu aveți pagini care nu trebuie indexate).