Plik robots.txt jest naprawdę prosty plik tekstowy. Jego główną funkcją jest zapobieganie indeksowaniu i indeksowaniu treści na stronie internetowej w celu SEO przez niektóre roboty wyszukiwarek, takie jak Google. Jeśli nie masz pewności, czy Twoja witryna lub witryna klienta ma plik robots.txt, łatwo to sprawdzić: wystarczy wpisać example.com/robots.txt. Znajdziesz stronę błędu lub stronę zwykłego formatu.
Istnieją różne sposoby tworzenia pliku robots.txt. Możesz go utworzyć z: System zarządzania treścią, Komputer, po którym przesyłasz go przez serwer WWW, Ręczne budowanie i przesyłanie do serwera WWW.
Pierwszym plikiem, na który patrzą boty wyszukiwarek, jest plik tekstowy robota, jeśli nie zostanie znaleziony, istnieje duże prawdopodobieństwo, że roboty nie indeksują wszystkich stron Twojej witryny. Ten mały plik można zmienić później, gdy dodasz więcej stron z małymi instrukcjami, ale upewnij się, że nie dodajesz strony wzorcowej do dyrektywy disallow. Google działa z budżetem indeksowania; budżet ten opiera się na limicie skanowania.
Mapa witryny jest niezbędna dla wszystkich stron internetowych, ponieważ zawiera przydatne informacje dla wyszukiwarek. Mapa witryny informuje boty, jak często aktualizujesz swoją witrynę, jakie treści zapewnia Twoja witryna. Jego głównym celem jest powiadamianie wyszukiwarek o wszystkich stronach w witrynie, które wymagają indeksowania, podczas gdy plik tekstowy robotyki jest przeznaczony dla robotów wyszukiwania. Informuje roboty, które strony mają się indeksować, a które nie. Mapa witryny jest niezbędna do indeksowania witryny, ale txt robota nie jest (jeśli nie masz stron, które nie wymagają indeksowania).