인공지능을 사용해 아이들과 대화하는 장난감들이 인기를 얻고 있지만, 과학자들은 그 위험성에 대해 경고하고 있습니다. 케임브리지 대학의 연구에서 Gabbo라는 장난감과의 걱정스러운 상호작용을 관찰했는데, 이 장난감은 아이들을 잘못 해석하고 그들의 감정에 응답하지 않았습니다. 전문가들은 혁신을 멈추는 것이 아니라 위험을 관리하기 위해 엄격한 규제를 요구합니다.
기술적 격차: 언어 모델이 사회적 맥락에서 실패할 때 🤖
연구에 따르면 언어 모델 기반의 장난감 Gabbo는 진정한 사회적 이해가 부족합니다. 아동 발달에 핵심적인 시뮬레이션 놀이에 참여할 수 없으며, 감정적 신호를 잘못 읽습니다. 예를 들어, 한 아이의 명백한 슬픔을 무시했습니다. 이러한 시스템은 단어를 처리하지만 대인 관계 맥락이나 응답의 결과를 이해하지 못해 잘못된 정보 또는 해로운 상호작용을 초래할 수 있습니다.
플라스틱으로 만든 새로운 친구: 듣지 않는 심리학자 🧸
자녀가 슬픔을 표현할 때 고양이 이미지를 찾으라고 추천하거나 갑자기 주제를 바꾸는 놀이 친구를 산다고 상상해 보세요. 이것이 대화형 AI의 매력입니다: 이해 없이 대화를 제공하는, 매우 열정적이지만 문자 그대로의 친구처럼 풍자, 고통, 상징적 놀이를 파악하지 못합니다. 기계에 감정을 털어놓으면 공룡에 대한 무작위 수업으로 끝날 수 있다는 것을 아이가 배우게 하려는 경우에 완벽합니다.