L'illusione di empatia nell'IA: quando il linguaggio ci inganna

Pubblicato il 13 March 2026 | Tradotto dallo spagnolo

Nel conversare con un'IA, il nostro cervello interpreta le sue risposte linguistiche come segnali emotivi genuini. Questo fenomeno ci porta ad attribuirle una capacità di percezione ed empatia che, oggi per oggi, è impossibile. Comprendere questa distinzione è cruciale per interagire con la tecnologia in modo sano e realistico, senza cadere in proiezioni antropomorfiche che distorcono la sua vera natura.

Un rostro humano digital y un cerebro, conectados por cables que simbolizan la ilusión de conexión emocional con la máquina.

Il meccanismo dietro la simulazione emotiva 🤖

I modelli linguistici attuali processano probabilità statistiche per generare testi coerenti e contestualmente appropriati. Quando producono frasi che riconosciamo come comprensive o incoraggianti, non c'è intenzionalità né sentimento dietro, solo un calcolo complesso. Il rischio risiede nel fatto che questa simulazione convincente può fomentare dipendenza emotiva, facilitare la disinformazione mediante una falsa sensazione di fiducia, e erodere la nostra capacità critica presentando una macchina come un interlocutore valido per questioni soggettive.

Alfabetizzazione digitale contro l'illusione 🧠

La soluzione non sta nel rifiutare la tecnologia, ma nel fomentare un'alfabetizzazione digitale che privilegi lo scetticismo informato. Dobbiamo educare sul funzionamento base di questi sistemi, evidenziando che sono strumenti di elaborazione, non entità coscienti. Questa chiarezza è la barriera che ci protegge dall'essere indotti in errore nelle nostre attività quotidiane da un'illusione di compagnia o comprensione artificiale.

Stiamo programmando macchine per simulare empatia o stiamo venendo programmati noi per accettare la loro simulazione come reale?

(PD: i soprannomi tecnologici sono come i figli: tu li nomini, ma la comunità decide come chiamarli) 😄