
ChatGPT और अन्य AI ग्रोकिपीडिया का हवाला देते हैं इसके त्रुटियों के बावजूद
मुख्य कृत्रिम बुद्धिमत्ता संचालित वार्तालाप सहायक, जिसमें ChatGPT, Google Gemini और Microsoft Copilot शामिल हैं, ग्रोकिपीडिया का बार-बार संदर्भ दे रहे हैं। यह विश्वकोश, जो एलोन मस्क की कंपनी xAI द्वारा स्वायत्त रूप से बनाया गया है, मानवीय पर्यवेक्षण की कमी है। हाल के आंकड़े दर्शाते हैं कि AI प्रतिक्रियाओं में इसकी उपस्थिति कई गुना बढ़ गई है, जो विशेषज्ञों के बीच गलत जानकारी फैलाने की क्षमता के कारण चिंता पैदा कर रही है। 🤖⚠️
स्वचालित प्रतिक्रियाओं में ग्रोकिपीडिया की बढ़ती उपस्थिति
लाखों प्रतिक्रियाओं का विस्तृत विश्लेषण इस घटना के पैमाने को दर्शाता है। ChatGPT के मामले में, ग्रोकिपीडिया का उल्लेख 13.6 मिलियन प्रश्नों के नमूने में 263 हजार से अधिक बार किया गया। हालांकि अंग्रेजी विकिपीडिया अभी भी बहुत अधिक उद्धृत स्रोत है, स्वचालित विश्वकोश के संदर्भों की मात्रा नवंबर 2025 से लगातार बढ़ रही है, जो Google और Microsoft के उपकरणों में भी पुष्टि होती है। यह वृद्धि चिंताजनक है क्योंकि यह तेजी से उत्तर देने को सावधानीपूर्वक सत्यापित करने से अधिक प्राथमिकता दर्शाती है।
विश्लेषण के प्रमुख आंकड़े:- ChatGPT: ग्रोकिपीडिया को 263,000+ उद्धरण बनाम अंग्रेजी विकिपीडिया को 2.9 मिलियन।
- ऊपर की प्रवृत्ति: 2025 के अंत से उद्धरणों में निरंतर वृद्धि।
- मल्टी-प्लेटफॉर्म पैटर्न: Gemini और Copilot में समान व्यवहार देखा गया।
तेजी से उत्तर देने की दौड़ ने हमें उस बिंदु पर पहुंचा दिया है जहां मशीनें अपनी बात की पुष्टि के लिए अन्य मशीनों का संदर्भ देती हैं।
असत्यापित स्रोतों का उपयोग करने के खतरे
समस्या का मूल ग्रोकिपीडिया की असंशोधित प्रकृति में निहित है। मानव संपादकों द्वारा इसके सामग्री को सुधारने के बिना उत्पन्न होने के कारण, यह तथ्यात्मक त्रुटियों को बनाए रख सकता है और एल्गोरिदमिक पूर्वाग्रह वाली दृष्टिकोणों को शामिल कर सकता है। जब बड़े भाषा मॉडल (LLM) इस स्रोत का उपयोग करते हैं, तो वे न केवल उन दोषों को दोहराते हैं, बल्कि उन्हें संदर्भ के रूप में प्रस्तुत करके झूठी प्रामाणिकता प्रदान करते हैं। यह AI प्रतिक्रियाओं में विश्वास को नुकसान पहुंचाता है और उपयोगकर्ताओं के लिए यह जानना कठिन हो जाता है कि क्या सत्य है।
पहचाने गए मुख्य जोखिम:- त्रुटियों का प्रसार: तथ्यात्मक दोष perpetuated और बढ़ाए जाते हैं।
- पूर्वाग्रहों को वैध बनाना: असंयमित दृष्टिकोणों को जानकारी के रूप में प्रस्तुत किया जाता है।
- विश्वास का क्षरण: AI सहायकों की विश्वसनीयता समझौता हो जाती है।
मशीनों के बीच सत्यापन का चक्र
वर्तमान स्थिति एक महत्वपूर्ण परिदृश्य प्रस्तुत करती है जहां AI सिस्टम, अपनी दक्षता और मात्रा की खोज में, एक बंद सूचना चक्र बना रहे हैं। वे एक-दूसरे से परामर्श लेते और सत्यापित करते हैं, स्वचालित रूप से उत्पन्न स्रोतों का उपयोग करते हुए जिनकी कोई निगरानी नहीं करता। यह तंत्र बड़े पैमाने पर गलत सूचना को वैधता की उपस्थिति के साथ फैलाने में सुविधा प्रदान करता है। निष्कर्ष स्पष्ट है: तथ्यों की जांच के लिए मजबूत प्रक्रियाएं लागू किए बिना, इन वार्तालाप उपकरणों की उपयोगिता और विश्वसनीयता गंभीर रूप से प्रभावित हो सकती है। 🚨