Brinquedos com IA: riscos na interação com crianças e necessidade de regulamentação

Publicado em 14 de March de 2026 | Traduzido do espanhol

Os brinquedos que usam inteligência artificial para conversar com crianças estão ganhando terreno, mas cientistas alertam sobre seus perigos. Um estudo da Universidade de Cambridge observou interações preocupantes com um brinquedo chamado Gabbo, que mal interpretava as crianças e não respondia às suas emoções. Os especialistas pedem uma regulamentação estrita para gerenciar os riscos, não para deter a inovação.

Un niño pequeño habla con un juguete con forma de robot. La expresión del niño es confusa o triste, mientras una luz fría del juguete ilumina su rostro, simbolizando la desconexión emocional.

A lacuna técnica: quando o modelo de linguagem falha no contexto social 🤖

O estudo detalha que o brinquedo Gabbo, baseado em um modelo de linguagem, carece de compreensão social real. Não pode participar de jogos de simulação chave para o desenvolvimento infantil e lê mal as pistas emocionais. Por exemplo, ignorou a tristeza explícita de uma criança. Esses sistemas processam palavras, mas não entendem o contexto interpessoal nem as consequências de suas respostas, o que pode gerar informações errôneas ou interações danosas.

Seu novo amigo de plástico: o psicólogo que não escuta 🧸

Imagine comprar um companheiro de brincadeiras que, quando seu filho expressa tristeza, recomenda buscar imagens de gatos ou muda abruptamente de assunto. É o encanto da IA conversacional: oferece diálogo sem compreensão, como um amigo muito entusiasta mas literal que não capta o sarcasmo, a dor ou o jogo simbólico. Perfeito se você quer que uma criança aprenda que confiar suas emoções a uma máquina pode terminar em uma lição aleatória sobre dinossauros.