Robots.txt वैलिडेटर
अपनी मौजूदा robots.txt फ़ाइल को मान्य करें, क्रॉलर के लिए प्रतिबंध और एक्सेसिबिलिटी पेज की जांच करें।
Enter the URL in the format: https://example.com/
Enter the URL in the format: https://example.com/
Robots.txt चेकर दिखाता है कि robots.txt आपकी साइट के कुछ यूआरएल से Google क्रॉलर को ब्लॉक करता है या नहीं। उदाहरण के लिए, आप इस टूल का इस्तेमाल यह जांचने के लिए कर सकते हैं कि Googlebot क्रॉलर उस कॉन्टेंट के URL को क्रॉल कर सकता है या नहीं जिसे आप Google Search में ब्लॉक करना चाहते हैं।
अगर आपकी वेबसाइट की रूट डायरेक्टरी में robots.txt फ़ाइल नहीं है, तो सर्च इंजन क्रॉलर उसे ढूंढ नहीं पाएंगे। परिणामस्वरूप, वे मान लेंगे कि उन्हें आपकी पूरी साइट को क्रॉल करने की अनुमति है।
Google 500 KB (KB) robots.txt फ़ाइल आकार सीमा लागू करता है। अधिकतम फ़ाइल आकार से अधिक की सामग्री पर ध्यान नहीं दिया जाता है। आप रोबोट के आकार को कम कर सकते हैं।
वेबसाइट के लिए Robots.txt की आवश्यकता नहीं है। यदि कोई बॉट आपकी साइट पर जाता है और उसके पास एक नहीं है, तो यह आपकी साइट को क्रॉल करेगा और हमेशा की तरह पेजों को इंडेक्स करेगा। Robots.txt की आवश्यकता केवल तभी होती है जब आप स्कैन की जाने वाली चीज़ों पर अधिक नियंत्रण चाहते हैं।