चैटजीपीटी और अन्य एआई ग्रोकिपीडिया का हवाला देते हैं भले ही इसमें गलतियाँ हों

2026 February 08 | स्पेनिश से अनुवादित
Captura de pantalla mostrando una respuesta de ChatGPT donde se cita como fuente a Grokipedia, con un recuadro rojo destacando la referencia.

ChatGPT और अन्य AI ग्रोकिपीडिया का हवाला देते हैं इसके त्रुटियों के बावजूद

मुख्य कृत्रिम बुद्धिमत्ता संचालित वार्तालाप सहायक, जिसमें ChatGPT, Google Gemini और Microsoft Copilot शामिल हैं, ग्रोकिपीडिया का बार-बार संदर्भ दे रहे हैं। यह विश्वकोश, जो एलोन मस्क की कंपनी xAI द्वारा स्वायत्त रूप से बनाया गया है, मानवीय पर्यवेक्षण की कमी है। हाल के आंकड़े दर्शाते हैं कि AI प्रतिक्रियाओं में इसकी उपस्थिति कई गुना बढ़ गई है, जो विशेषज्ञों के बीच गलत जानकारी फैलाने की क्षमता के कारण चिंता पैदा कर रही है। 🤖⚠️

स्वचालित प्रतिक्रियाओं में ग्रोकिपीडिया की बढ़ती उपस्थिति

लाखों प्रतिक्रियाओं का विस्तृत विश्लेषण इस घटना के पैमाने को दर्शाता है। ChatGPT के मामले में, ग्रोकिपीडिया का उल्लेख 13.6 मिलियन प्रश्नों के नमूने में 263 हजार से अधिक बार किया गया। हालांकि अंग्रेजी विकिपीडिया अभी भी बहुत अधिक उद्धृत स्रोत है, स्वचालित विश्वकोश के संदर्भों की मात्रा नवंबर 2025 से लगातार बढ़ रही है, जो Google और Microsoft के उपकरणों में भी पुष्टि होती है। यह वृद्धि चिंताजनक है क्योंकि यह तेजी से उत्तर देने को सावधानीपूर्वक सत्यापित करने से अधिक प्राथमिकता दर्शाती है।

विश्लेषण के प्रमुख आंकड़े:
तेजी से उत्तर देने की दौड़ ने हमें उस बिंदु पर पहुंचा दिया है जहां मशीनें अपनी बात की पुष्टि के लिए अन्य मशीनों का संदर्भ देती हैं।

असत्यापित स्रोतों का उपयोग करने के खतरे

समस्या का मूल ग्रोकिपीडिया की असंशोधित प्रकृति में निहित है। मानव संपादकों द्वारा इसके सामग्री को सुधारने के बिना उत्पन्न होने के कारण, यह तथ्यात्मक त्रुटियों को बनाए रख सकता है और एल्गोरिदमिक पूर्वाग्रह वाली दृष्टिकोणों को शामिल कर सकता है। जब बड़े भाषा मॉडल (LLM) इस स्रोत का उपयोग करते हैं, तो वे न केवल उन दोषों को दोहराते हैं, बल्कि उन्हें संदर्भ के रूप में प्रस्तुत करके झूठी प्रामाणिकता प्रदान करते हैं। यह AI प्रतिक्रियाओं में विश्वास को नुकसान पहुंचाता है और उपयोगकर्ताओं के लिए यह जानना कठिन हो जाता है कि क्या सत्य है।

पहचाने गए मुख्य जोखिम:

मशीनों के बीच सत्यापन का चक्र

वर्तमान स्थिति एक महत्वपूर्ण परिदृश्य प्रस्तुत करती है जहां AI सिस्टम, अपनी दक्षता और मात्रा की खोज में, एक बंद सूचना चक्र बना रहे हैं। वे एक-दूसरे से परामर्श लेते और सत्यापित करते हैं, स्वचालित रूप से उत्पन्न स्रोतों का उपयोग करते हुए जिनकी कोई निगरानी नहीं करता। यह तंत्र बड़े पैमाने पर गलत सूचना को वैधता की उपस्थिति के साथ फैलाने में सुविधा प्रदान करता है। निष्कर्ष स्पष्ट है: तथ्यों की जांच के लिए मजबूत प्रक्रियाएं लागू किए बिना, इन वार्तालाप उपकरणों की उपयोगिता और विश्वसनीयता गंभीर रूप से प्रभावित हो सकती है। 🚨