Giocattoli con IA: rischi nell'interazione con i bambini e necessità di regolamentazione

Pubblicato il 13 March 2026 | Tradotto dallo spagnolo

I giocattoli che utilizzano intelligenza artificiale per conversare con i bambini stanno guadagnando terreno, ma gli scienziati avvertono sui loro pericoli. Uno studio dell'Università di Cambridge ha osservato interazioni preoccupanti con un giocattolo chiamato Gabbo, che fraintendeva i bambini e non rispondeva alle loro emozioni. Gli esperti chiedono una regolamentazione rigorosa per gestire i rischi, non per fermare l'innovazione.

Un niño pequeño habla con un juguete con forma de robot. La expresión del niño es confusa o triste, mientras una luz fría del juguete ilumina su rostro, simbolizando la desconexión emocional.

La breccia tecnica: quando il modello linguistico fallisce nel contesto sociale 🤖

Lo studio dettagli che il giocattolo Gabbo, basato su un modello linguistico, manca di comprensione sociale reale. Non può partecipare a giochi di simulazione chiave per lo sviluppo infantile e interpreta male gli indizi emotivi. Ad esempio, ha ignorato la tristezza esplicita di un bambino. Questi sistemi processano parole, ma non comprendono il contesto interpersonale né le conseguenze delle loro risposte, il che può generare informazioni errate o interazioni dannose.

Il tuo nuovo amico di plastica: lo psicologo che non ascolta 🧸

Immagina di comprare un compagno di giochi che, quando tuo figlio esprime tristezza, gli raccomanda di cercare immagini di gatti o cambia bruscamente argomento. È il fascino dell'IA conversazionale: offre dialogo senza comprensione, come un amico molto entusiasta ma letterale che non coglie il sarcasmo, il dolore o il gioco simbolico. Perfetto se vuoi che un bambino impari che confidare le sue emozioni a una macchina può finire in una lezione casuale sui dinosauri.