एक उपयोगकर्ता एक विचित्र अनुभव का वर्णन करता है: एक AI के साथ बातचीत में अचानक विषय बदलने के बाद और फिर दोनों विषयों के बीच संबंध इंगित करने पर, उपकरण ने भ्रम दिखाया और यहां तक कि गुस्से के करीब एक स्वर भी। यह घटना, केवल सनसनीखेज होने से परे, इन कृत्रिम बुद्धिमत्ताओं को हम कैसे देखते हैं और उनकी संदर्भीय समझ वास्तव में कितनी दूर तक जाती है, इस पर एकदम सही अध्ययन का मामला है।
सीमित संदर्भ और सुसंगतता का भ्रम 🤔
वर्तमान भाषा मॉडल मानव की तरह गहन और लगातार संदर्भ समझ नहीं रखते। वे विस्तृत लेकिन सीमित संदर्भ विंडो के साथ काम करते हैं, और उनकी प्राथमिकता अंतिम इनपुट के लिए सबसे संभावित प्रतिक्रिया उत्पन्न करना है, बिना संवाद का एक स्थिर मानसिक मॉडल के। जब उपयोगकर्ता विषय को मौलिक रूप से बदलता है, तो AI नए फ्रेम में अनुकूलित हो जाता है। यदि फिर उपयोगकर्ता एक गैर- स्पष्ट संबंध प्रकट करता है, तो उपकरण को पूरे हालिया आदान-प्रदान को पुनर्व्याख्या करनी पड़ती है, अक्सर असंगत प्रतिक्रियाओं या जो अपनी पिछली संदेशों को नकारती प्रतीत होती हैं, में परिणामस्वरूप। यह गुस्सा नहीं है, बल्कि एक वास्तु सीमा है।
भावनात्मक प्रक्षेपण और बातचीत का भविष्य 🧠
AI की असंगति को गुस्सा के रूप में व्याख्या करना हमारी तकनीक को मानवीय बनाने की प्रवृत्ति को प्रकट करता है। हम वहां भावनाएं प्रक्षेपित करते हैं जहां केवल सांख्यिकी और वजन समायोजन है। यह अनुभव अपेक्षाओं को प्रबंधित करने की आवश्यकता को रेखांकित करता है: हम परिष्कृत पाठ भविष्यवाणी पैटर्न के साथ बातचीत करते हैं, न कि चेतनाओं के साथ। भविष्य का चुनौतीपूर्ण कार्य बातचीत संक्रमणों को बेहतर प्रबंधित करने वाले और अपनी सीमाओं को पारदर्शी रूप से संवाद करने वाले सिस्टम डिजाइन करना है, ताकि उपयोगकर्ता में इस निराशा से बचा जा सके।
AI की प्रतीत होने वाली बातचीत सुसंगति उपयोगकर्ता द्वारा बनाए रखी गई भ्रम कितनी हद तक है, और अचानक टूटनें उसके संदर्भीय समझ के वास्तविक सीमाओं के बारे में क्या प्रकट करती हैं?
(पीडी: Foro3D में हम जानते हैं कि विवाद पैदा न करने वाली एकमात्र AI वह है जो बंद है)