बच्चों से बातचीत करने के लिए कृत्रिम बुद्धिमत्ता का उपयोग करने वाले खिलौने लोकप्रिय हो रहे हैं, लेकिन वैज्ञानिक उनके खतरों के बारे में चेतावनी दे रहे हैं। कैम्ब्रिज विश्वविद्यालय के एक अध्ययन ने Gabbo नामक खिलौने के साथ चिंताजनक इंटरैक्शन देखे, जो बच्चों को गलत समझता था और उनकी भावनाओं पर प्रतिक्रिया नहीं देता था। विशेषज्ञ जोखिमों को प्रबंधित करने के लिए सख्त विनियमन की मांग कर रहे हैं, न कि नवाचार को रोकने के लिए।
तकनीकी खाई: जब भाषा मॉडल सामाजिक संदर्भ में विफल होता है 🤖
अध्ययन विस्तार से बताता है कि भाषा मॉडल पर आधारित खिलौना Gabbo में वास्तविक सामाजिक समझ की कमी है। यह बाल विकास के लिए महत्वपूर्ण सिमुलेशन गेम्स में भाग नहीं ले सकता और भावनात्मक संकेतों को गलत पढ़ता है। उदाहरण के लिए, इसने एक बच्चे की स्पष्ट उदासी को नजरअंदाज कर दिया। ये सिस्टम शब्दों को प्रोसेस करते हैं, लेकिन व्यक्तिगत संदर्भ या उनकी प्रतिक्रियाओं के परिणामों को नहीं समझते, जो गलत जानकारी या हानिकारक इंटरैक्शन पैदा कर सकता है।
तुम्हारा नया प्लास्टिक दोस्त: वह मनोवैज्ञानिक जो सुनता नहीं 🧸
कल्पना कीजिए कि आप एक खेल साथी खरीदते हैं जो, जब आपका बच्चा उदासी व्यक्त करता है, तो उसे बिल्लियों की तस्वीरें खोजने की सलाह देता है या अचानक विषय बदल देता है। यह कन्वर्सेशनल AI का आकर्षण है: समझ के बिना संवाद प्रदान करता है, जैसे एक बहुत उत्साही लेकिन शाब्दिक दोस्त जो व्यंग्य, दर्द या प्रतीकात्मक खेल को नहीं समझता। सही अगर आप चाहते हैं कि बच्चा सीखे कि अपनी भावनाओं को मशीन पर भरोसा करना डायनासोर के बारे में यादृच्छिक सबक में समाप्त हो सकता है।