Jouets avec IA : risques dans l'interaction avec les enfants et nécessité de régulation

Publié le 13 March 2026 | Traduit de l'espagnol

Les jouets qui utilisent l'intelligence artificielle pour converser avec les enfants gagnent du terrain, mais des scientifiques alertent sur leurs dangers. Une étude de l'Université de Cambridge a observé des interactions préoccupantes avec un jouet appelé Gabbo, qui malinterprétait les enfants et ne répondait pas à leurs émotions. Les experts demandent une régulation stricte pour gérer les risques, non pour arrêter l'innovation.

Un niño pequeño habla con un juguete con forma de robot. La expresión del niño es confusa o triste, mientras una luz fría del juguete ilumina su rostro, simbolizando la desconexión emocional.

La brèche technique : quand le modèle de langage échoue dans le contexte social 🤖

L'étude détaille que le jouet Gabbo, basé sur un modèle de langage, manque de compréhension sociale réelle. Il ne peut pas participer à des jeux de simulation clés pour le développement infantile et lit mal les indices émotionnels. Par exemple, il a ignoré la tristesse explicite d'un enfant. Ces systèmes traitent des mots, mais ne comprennent pas le contexte interpersonnel ni les conséquences de leurs réponses, ce qui peut générer des informations erronées ou des interactions dommageables.

Ton nouveau ami en plastique : le psychologue qui n'écoute pas 🧸

Imaginez acheter un compagnon de jeux qui, quand votre enfant exprime de la tristesse, lui recommande de chercher des images de chats ou change abruptement de sujet. C'est le charme de l'IA conversationnelle : elle offre du dialogue sans compréhension, comme un ami très enthousiaste mais littéral qui ne saisit pas le sarcasme, la douleur ou le jeu symbolique. Parfait si vous voulez qu'un enfant apprenne que confier ses émotions à une machine peut se terminer par une leçon aléatoire sur les dinosaures.