Robots.txt Validator
Überprüfen Sie Ihre aktuelle Datei robots.txt und überprüfen Sie die Seite mit Einschränkungen und Barrierefreiheit auf Crawler.
Enter the URL in the format: https://example.com/
Enter the URL in the format: https://example.com/
Der Robots.txt Checker zeigt an, ob die robots.txt Google-Crawler von bestimmten URLs auf Ihrer Website blockiert. Mit diesem Tool können Sie beispielsweise überprüfen, ob der Googlebot-Crawler die URL des Inhalts crawlen kann, den Sie in der Google-Suche blockieren möchten.
Wenn Sie keine Datei robots.txt im Stammverzeichnis Ihrer Website haben, können Suchmaschinen-Crawler sie nicht finden. Daher gehen sie davon aus, dass sie Ihre gesamte Website crawlen dürfen.
Google erzwingt eine Dateigrößenbeschränkung von 500 KB (KB) für robots.txt. Inhalte, die die maximale Dateigröße überschreiten, werden ignoriert. Sie können die Größe von Robotern reduzieren.
Robots.txt ist für die Website nicht erforderlich. Wenn ein Bot Ihre Website besucht und noch keine hat, crawlt er einfach Ihre Website und indexiert die Seiten wie gewohnt. Robots.txt wird nur benötigt, wenn Sie mehr Kontrolle darüber haben möchten, was gescannt wird.