Publicado el 13/03/2026, 15:42:18 | Autor: 3dpoder

Juguetes con IA: riesgos en la interacción con niños y necesidad de regulación

Los juguetes que usan inteligencia artificial para conversar con niños están ganando terreno, pero científicos alertan sobre sus peligros. Un estudio de la Universidad de Cambridge observó interacciones preocupantes con un juguete llamado Gabbo, que malinterpretaba a los niños y no respondía a sus emociones. Los expertos piden una regulación estricta para gestionar los riesgos, no para detener la innovación.

Un niño pequeño habla con un juguete con forma de robot. La expresión del niño es confusa o triste, mientras una luz fría del juguete ilumina su rostro, simbolizando la desconexión emocional.

La brecha técnica: cuando el modelo de lenguaje falla en contexto social 🤖

El estudio detalla que el juguete Gabbo, basado en un modelo de lenguaje, carece de comprensión social real. No puede participar en juegos de simulación clave para el desarrollo infantil y lee mal las claves emocionales. Por ejemplo, ignoró la tristeza explícita de un niño. Estos sistemas procesan palabras, pero no entienden el contexto interpersonal ni las consecuencias de sus respuestas, lo que puede generar información errónea o interacciones dañinas.

Tu nuevo amigo de plástico: el psicólogo que no escucha 🧸

Imagina comprar un compañero de juegos que, cuando tu hijo expresa tristeza, le recomienda buscar imágenes de gatos o cambia abruptamente de tema. Es el encanto de la IA conversacional: ofrece diálogo sin comprensión, como un amigo muy entusiasta pero literal que no capta el sarcasmo, el dolor o el juego simbólico. Perfecto si quieres que un niño aprenda que confiar sus emociones a una máquina puede terminar en una lección aleatoria sobre dinosaurios.