Robots.txt Validator
Validați fișierul robots.txt curent, verificați pagina de restricție și accesibilitate pentru crawlere.
Enter the URL in the format: https://example.com/
Enter the URL in the format: https://example.com/
Robots.txt Checker arată dacă robots.txt blochează crawlerele Google de la anumite adrese URL de pe site-ul dvs. De exemplu, puteți utiliza acest instrument pentru a verifica dacă crawlerul Googlebot poate accesa cu crawlere adresa URL a conținutului pe care doriți să îl blocați în Căutarea Google.
Dacă nu aveți un fișier robots.txt în directorul rădăcină al site-ului dvs. web, crawlerele motoarelor de căutare nu îl vor putea găsi. Drept urmare, ei vor presupune că li se permite să acceseze cu crawlere întregul site.
Google impune o limită de dimensiune a fișierului robots.txt de 500 KB (KB). Conținutul care depășește dimensiunea maximă a fișierului este ignorat. Puteți reduce dimensiunea roboților.
Robots.txt nu este necesar pentru site-ul web. Dacă un bot vizitează site-ul dvs. și nu are unul, acesta va accesa pur și simplu site-ul dvs. și va indexa paginile ca de obicei. Robots.txt este necesar doar dacă doriți mai mult control asupra a ceea ce este scanat.