I principali chatbot di IA non rilevano video creati con Sora

Pubblicato il 23 January 2026 | Tradotto dallo spagnolo
Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

I principali chatbot di IA non rilevano video creati con Sora

Un recente rapporto di NewsGuard espone una falla importante negli assistenti di intelligenza artificiale più noti: non riescono a riconoscere quando un video è prodotto dal generatore Sora di OpenAI. Anche ChatGPT, creato dalla stessa azienda, fallisce in questo compito. Gli esperti hanno valutato vari modelli con materiale visivo autentico e fabbricato, e i risultati indicano una restrizione notevole per discernere l'origine del contenuto. 🤖

Le valutazioni mostrano una lacuna nel riconoscimento

I ricercatori hanno presentato ai chatbot dieci clip, metà reali e metà create da Sora, chiedendo loro di determinarne la provenienza. Nessuno dei sistemi testati, che includono versioni di ChatGPT, Google Gemini, Microsoft Copilot, Meta AI e Grok, è riuscito a superare l'80% di precisione. In diverse occasioni, i modelli si sono rifiutati di analizzare il materiale o hanno dato risposte generiche su come identificare contenuti sintetici invece di applicare praticamente quella conoscenza.

Modelli valutati e loro prestazioni:
  • ChatGPT (OpenAI): Non ha riconosciuto video creati dalla sua stessa azienda madre.
  • Google Gemini e Microsoft Copilot: Hanno mostrato tassi di precisione bassi e risposte evasive.
  • Meta AI e Grok: Si sono rifiutati frequentemente di analizzare o hanno offerto guide teoriche inapplicabili.
I modelli di linguaggio generalisti non trasferiscono efficacemente la loro conoscenza a questo compito specifico di verifica video.

Il rischio per l'informazione online è chiaro

Questa impossibilità di verificare l'autenticità di un video rappresenta una sfida immediata per affrontare la disinformazione su internet. Gli strumenti su cui molti fanno affidamento per esaminare i contenuti non sono pronti per il materiale iperrealistico che Sora può produrre. Lo scenario sottolinea l'urgenza di creare metodi di rilevamento più solidi e specializzati. 🚨

Implicazioni pratiche di questa limitazione:
  • Gli utenti non possono fare affidamento su questi assistenti per filtrare contenuti falsi generati da IA.
  • Si apre una finestra per creare e distribuire materiale ingannevole con maggiore facilità.
  • La teoria su marchi d'acqua o anomalie nei fotogrammi che i chatbot spiegano non si applica nella pratica.

Un paradosso dell'intelligenza artificiale moderna

Risulta paradossale che l'intelligenza artificiale, frequentemente promossa come la soluzione per problemi contemporanei, non possa identificare la sua stessa creazione più avanzata. I chatbot forniscono estese spiegazioni sulla rilevazione, ma alla fine falliscono quando si confrontano con il caso pratico. Questa scoperta sottolinea che è necessario un approccio diverso e più specifico per sviluppare strumenti che possano realmente proteggere l'integrità dell'informazione visiva online.