robots.txt ファイルは非常にシンプルなテキストファイルです。その主な機能は、Googleなどの一部の検索エンジンクローラーがSEOのためにWebサイトのコンテンツをクロールしてインデックスに登録するのを防ぐことです。 自分のウェブサイトやクライアントのウェブサイトに robots.txt ファイルがあるかどうかわからない場合は、example.com/robots.txt と入力するだけで簡単に確認できます。エラーページまたはプレーンフォーマットのページが表示されます。
robots.txt ファイルを作成するには、さまざまな方法があります。コンテンツ管理システム、コンピューターから作成し、その後Webサーバーからアップロードし、手動でビルドしてWebサーバーにアップロードできます。
検索エンジンボットが最初に調べるファイルはロボットのテキストファイルです。見つからない場合は、クローラーがサイトのすべてのページをインデックスに登録しない可能性が高くなります。この小さなファイルは、後でちょっとした指示でページを追加したときに変更できますが、disallow ディレクティブにマスターページを追加しないように注意してください。Google はクロール予算で運営されています。この予算はスキャン制限に基づいています。
サイトマップには、検索エンジンに役立つ情報が含まれているため、すべてのウェブサイトにとって不可欠です。サイトマップは、ウェブサイトを更新する頻度やサイトが提供するコンテンツをボットに伝えます。その主な目的は、クロールが必要なサイト上のすべてのページを検索エンジンに通知することですが、ロボティクスのテキストファイルは検索ロボット用です。どのページをクロールし、どのページをクロールしないかをクローラーに指示します。サイトがインデックスに登録されるにはサイトマップが必要ですが、ロボットのテキストはそうではありません(インデックスを作成する必要のないページがない場合)。