A robots.txt fájl egy nagyon egyszerű szöveges fájl. Fő feladata, hogy megakadályozza, hogy egyes keresőmotor-robotok, például a Google feltérképezzék és indexeljék a tartalmat egy webhelyen a SEO számára. Ha nem biztos abban, hogy webhelye vagy ügyfele weboldalán van-e robots.txt fájl, egyszerűen ellenőrizheti: csak írja be a example.com/robots.txt parancsot. Találsz egy hibaoldalt vagy egy egyszerű formátumú oldalt.
A robots.txt fájl létrehozásának különböző módjai vannak. Létrehozhatja a: Content Management System, Számítógép, amely után feltölti a webszerveren keresztül, Kézi felépítés és feltöltés a webszerverre.
Az első fájl, amelyet a keresőmotor botjai megnéznek, a robot szövegfájlja, ha nem található meg, akkor nagy a valószínűsége annak, hogy a robotok nem indexelik a webhely összes oldalát. Ez az apró fájl később módosítható, ha további oldalakat ad hozzá egy kis utasítással, de ügyeljen arra, hogy ne adja hozzá a főoldalt a tiltási irányelvhez. A Google feltérképezési költségkerettel fut; ez a költségvetés a beolvasási korláton alapul.
A webhelytérkép létfontosságú minden webhely számára, mivel hasznos információkat tartalmaz a keresőmotorok számára. A webhelytérkép megmondja a robotoknak, hogy milyen gyakran frissíti webhelyét, milyen tartalmat nyújt webhelye. Fő célja, hogy értesítse a keresőmotorokat a webhely összes olyan oldaláról, amelyet fel kell térképezni, míg a robotika szövegfájl keresőrobotok számára készült. Megmondja a bejáróknak, hogy melyik oldalt kell feltérképezni, és melyiket nem. A webhelytérkép szükséges a webhely indexeléséhez, de a robot txtje nem (ha nincsenek olyan oldalak, amelyeket nem kell indexelni).