子供たちと会話するために人工知能を使うおもちゃが普及しつつありますが、科学者たちはその危険性について警告しています。ケンブリッジ大学の研究では、Gabboというおもちゃとの心配なやり取りが観察されました。このおもちゃは子供たちを誤解し、彼らの感情に適切に応答しませんでした。専門家たちは、リスクを管理するための厳格な規制を求めていますが、イノベーションを止めるためではありません。
技術的なギャップ:言語モデルが社会的文脈で失敗するとき 🤖
この研究では、言語モデルに基づくおもちゃGabboが本物の社会的理解を欠いていることが詳述されています。子供の発達に重要なシミュレーション遊びに参加できず、感情的な手がかりを誤読します。例えば、ある子供の明らかな悲しみを無視しました。これらのシステムは言葉を処理しますが、人間関係の文脈や応答の結果を理解せず、誤った情報や有害なやり取りを引き起こす可能性があります。
プラスチックの新しい友達:聞かない心理学者 🧸
お子さんが悲しみを表現したときに、猫の画像を探すことを勧めたり、突然話題を変えたりする遊び相手を買うのを想像してみてください。それが会話型AIの魅力です:理解なしに会話を提供します。皮肉、痛み、象徴的な遊びを捉えられない、熱心だが文字通りの友達のようです。子供に、感情を機械に託すと恐竜についてのランダムなレッスンで終わることを学ばせたいなら完璧です。