File robots.txt adalah file teks yang sangat sederhana. Fungsi utamanya adalah untuk mencegah beberapa perayap mesin pencari seperti Google merayapi dan mengindeks konten di situs web untuk SEO. Jika Anda tidak yakin apakah situs web atau situs web klien Anda memiliki file robots.txt, mudah untuk memeriksa: cukup ketik example.com/robots.txt. Anda akan menemukan halaman kesalahan atau halaman format biasa.
Ada berbagai cara untuk membuat file robots.txt. Anda dapat membuatnya dari Anda: Content Management System, Komputer setelah itu Anda meng-upload melalui server web Anda, Manual membangun dan meng-upload ke Webserver.
File pertama yang dilihat oleh bot mesin pencari adalah file teks robot, jika tidak ditemukan, maka ada kemungkinan besar bahwa perayap tidak akan mengindeks semua halaman situs Anda. File kecil ini dapat diubah kemudian ketika Anda menambahkan lebih banyak halaman dengan sedikit instruksi, tetapi pastikan Anda tidak menambahkan halaman master ke direktif disallow. Google berjalan dengan anggaran crawl; anggaran ini didasarkan pada batas pemindaian.
Peta situs sangat penting untuk semua situs web karena berisi informasi yang berguna untuk mesin pencari. Peta situs memberi tahu bot seberapa sering Anda memperbarui situs web Anda, konten apa yang disediakan situs Anda. Tujuan utamanya adalah untuk memberi tahu mesin pencari tentang semua halaman di situs Anda yang perlu dijelajahi, sedangkan file teks robotika adalah untuk robot pencarian. Ini memberitahu crawler halaman mana yang akan dirayapi dan mana yang tidak. Peta situs diperlukan agar situs Anda diindeks, tetapi txt robot tidak (jika Anda tidak memiliki halaman yang tidak perlu diindeks).