ChatGPT जैसे AI सहायकों के साथ एक नया गलत सूचना का मोर्चा उभर रहा है। असामान्य प्रश्नों का उत्तर देने के लिए लाइव वेब सर्च करते हुए, ये सिस्टम हेरफेर की गई पृष्ठों से झूठे डेटा को शामिल कर सकते हैं। समस्या यह है कि वे जानकारी को एक स्थापित तथ्य के रूप में प्रस्तुत करते हैं, पारंपरिक सर्च इंजन की तरह स्रोतों का तुलनात्मक विश्लेषण प्रदान किए बिना, जो अफवाहों के प्रसार को आसान बनाता है।
RAG तंत्र में खामी और स्रोतों की वैधीकरण ⚠️
तकनीकी रूप से, समस्या RAG (Retrieval-Augmented Generation) का उपयोग करने वाले सिस्टमों में और गंभीर हो जाती है। जब प्रश्न मॉडल के आधार ज्ञान से बाहर होता है, तो यह वेब से अंश पुनर्प्राप्त करता है। स्रोत की प्रामाणिकता या सत्यता की पुष्टि करने वाले मजबूत फिल्टर के बिना, एक गंभीर दिखने वाली साइट पर अच्छी तरह लिखा गया पाठ संदर्भ के रूप में एकीकृत हो जाता है। उस संदर्भ से उत्पन्न उत्तर एक तथ्यात्मक स्वर प्राप्त करता है, बिना संभावित झूठेपन के बारे में कोई बारीकियां या चेतावनी दिए।
आपका नया डिजिटल इंटर्न इंटरनेट पर जो कुछ पढ़ता है उसे सब सच मान लेता है 😅
यह वैसा ही है जैसे एक अत्यधिक उत्साही प्रशिक्षु हो जो प्रभावित करने के लिए किसी भी ब्लॉग पर मिलने वाले पहले लेख को निगल लेता है और इसे उद्योग की पूर्ण सत्यता के रूप में प्रस्तुत करता है। आप हार्डवेयर की अफवाह के बारे में पूछते हैं और वह पूर्ण गंभीरता के साथ कल बनी एक वेबसाइट के तथ्यों का हवाला देता है। विडंबना यह है कि हम उसकी आभासी निष्पक्षता पर भरोसा करते हैं, जबकि वास्तव में उसके पास नेटवर्क की खोज करने वाले किसी व्यक्ति की भोली-भाली विश्वासुकता है। प्रौद्योगिकी में एक कदम आगे, सामान्य बुद्धि में दो कदम पीछे।