Les principaux chatbots d'IA ne détectent pas les vidéos créées avec Sora

Publié le 23 January 2026 | Traduit de l'espagnol
Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

Les principaux chatbots d'IA ne détectent pas les vidéos créées avec Sora

Un rapport récent de NewsGuard expose une faille importante dans les assistants d'intelligence artificielle les plus connus : ils ne parviennent pas à reconnaître quand une vidéo est produite par le générateur Sora d'OpenAI. Même ChatGPT, créé par la même entreprise, échoue dans cette tâche. Les experts ont évalué plusieurs modèles avec du matériel visuel authentique et fabriqué, et les résultats indiquent une restriction notable pour discerner l'origine du contenu. 🤖

Les évaluations montrent une lacune dans la reconnaissance

Les chercheurs ont présenté aux chatbots dix clips, la moitié réels et la moitié faits par Sora, en leur demandant de déterminer leur provenance. Aucun des systèmes testés, qui englobent des versions de ChatGPT, Google Gemini, Microsoft Copilot, Meta AI et Grok, n'a réussi à dépasser quatre-vingts pour cent de réussite. À plusieurs reprises, les modèles ont refusé d'analyser le matériel ou ont donné des réponses génériques sur la façon d'identifier le contenu synthétique au lieu d'utiliser ce savoir de manière pratique.

Modèles évalués et leur performance :
  • ChatGPT (OpenAI) : N'a pas reconnu les vidéos créées par sa propre entreprise mère.
  • Google Gemini et Microsoft Copilot : Ont montré des taux de réussite bas et des réponses évasives.
  • Meta AI et Grok : Ont fréquemment refusé d'analyser ou ont offert des guides théoriques inapplicables.
Les modèles de langage généralistes ne transfèrent pas efficacement leur connaissance à cette tâche concrète de vérification vidéo.

Le risque pour l'information en ligne est clair

Cette impossibilité de vérifier l'authenticité d'une vidéo représente un défi immédiat pour lutter contre la désinformation sur internet. Les outils sur lesquels beaucoup comptent pour examiner le contenu ne sont pas prêts pour le matériel hyperréaliste que Sora peut produire. Le scénario souligne l'urgence de créer des méthodes de détection plus solides et spécialisées. 🚨

Implications pratiques de cette limitation :
  • Les utilisateurs ne peuvent pas compter sur ces assistants pour filtrer le contenu faux généré par IA.
  • Se ouvre une fenêtre pour créer et distribuer du matériel trompeur plus facilement.
  • La théorie sur les filigranes ou anomalies dans les photogrammes que connaissent les chatbots ne s'applique pas en pratique.

Un paradoxe de l'intelligence artificielle moderne

Il est paradoxal que l'intelligence artificielle, souvent promue comme la solution aux problèmes contemporains, ne puisse pas identifier sa propre création la plus avancée. Les chatbots fournissent de longues explications sur la détection, mais au final, ils échouent face au cas pratique. Cette découverte souligne qu'il faut une approche différente et plus spécifique pour développer des outils qui puissent vraiment protéger l'intégrité de l'information visuelle en ligne.