I principali chatbot di IA non rilevano video creati con Sora

Pubblicato il 23 January 2026 | Tradotto dallo spagnolo
Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

I principali chatbot di IA non rilevano video creati con Sora

Un recente rapporto di NewsGuard espone una falla importante negli assistenti di intelligenza artificiale più noti: non riescono a riconoscere quando un video è prodotto dal generatore Sora di OpenAI. Anche ChatGPT, creato dalla stessa azienda, fallisce in questo compito. Gli esperti hanno valutato vari modelli con materiale visivo autentico e fabbricato, e i risultati indicano una restrizione notevole per discernere l'origine del contenuto. 🤖

Le valutazioni mostrano una lacuna nel riconoscimento

I ricercatori hanno presentato ai chatbot dieci clip, metà reali e metà create da Sora, chiedendo loro di determinarne la provenienza. Nessuno dei sistemi testati, che includono versioni di ChatGPT, Google Gemini, Microsoft Copilot, Meta AI e Grok, è riuscito a superare l'80% di precisione. In diverse occasioni, i modelli si sono rifiutati di analizzare il materiale o hanno dato risposte generiche su come identificare contenuti sintetici invece di applicare praticamente quella conoscenza.

Modelli valutati e loro prestazioni:
I modelli di linguaggio generalisti non trasferiscono efficacemente la loro conoscenza a questo compito specifico di verifica video.

Il rischio per l'informazione online è chiaro

Questa impossibilità di verificare l'autenticità di un video rappresenta una sfida immediata per affrontare la disinformazione su internet. Gli strumenti su cui molti fanno affidamento per esaminare i contenuti non sono pronti per il materiale iperrealistico che Sora può produrre. Lo scenario sottolinea l'urgenza di creare metodi di rilevamento più solidi e specializzati. 🚨

Implicazioni pratiche di questa limitazione:

Un paradosso dell'intelligenza artificiale moderna

Risulta paradossale che l'intelligenza artificiale, frequentemente promossa come la soluzione per problemi contemporanei, non possa identificare la sua stessa creazione più avanzata. I chatbot forniscono estese spiegazioni sulla rilevazione, ma alla fine falliscono quando si confrontano con il caso pratico. Questa scoperta sottolinea che è necessario un approccio diverso e più specifico per sviluppare strumenti che possano realmente proteggere l'integrità dell'informazione visiva online.