主要AIチャットボット、Soraで作成された動画を検知できない

2026年02月04日 公開 | スペイン語から翻訳
Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

主要のAIチャットボットはSoraで作成された動画を検知しない

最近のNewsGuardの報告書は、最も有名な人工知能アシスタントに重大な欠陥があることを暴露しています:OpenAIの生成器Soraが作成した動画を認識できないのです。同社のChatGPTでさえ、このタスクで失敗します。専門家たちは本物の視覚素材と捏造された素材でいくつかのモデルを評価し、結果はコンテンツの起源を識別する顕著な制限を示しています。🤖

評価は認識のギャップを示す

研究者たちはチャットボットに10本のクリップを提示しました。半分は本物で半分はSoraで作られたもので、その出所を判断するよう求めました。テストされたシステムのどれも、ChatGPT、Google Gemini、Microsoft Copilot、Meta AI、Grokのバージョンなどを含むもので、80%以上の正解率を達成できませんでした。何度か、モデルは素材を分析することを拒否したり、合成コンテンツを識別する方法についての一般的な回答を与えたり、実践的にその知識を使用しませんでした。

評価されたモデルとそのパフォーマンス:
  • ChatGPT (OpenAI):自社親会社が作成した動画を認識しませんでした。
  • Google GeminiとMicrosoft Copilot:低い正解率と曖昧な回答を示しました。
  • Meta AIとGrok:頻繁に分析を拒否したり、適用できない理論的なガイドを提供しました。
汎用言語モデルは、この具体的な動画検証タスクに効果的に知識を移転しません。

オンライン情報のリスクは明らか

動画の真正性を検証できないこの状況は、インターネット上の誤情報に対処するための即時の課題です、多くの人がコンテンツを精査するために信頼するツールは、Soraが生成できる超現実的な素材に対応していません。この状況は、より強固で専門的な検知方法を作成する緊急性を強調しています。🚨

この制限の実用的影響:
  • ユーザーはこれらのアシスタントをAI生成の偽コンテンツをフィルタリングするために依存できません。
  • 欺瞞的な素材を作成・配布するための窓が開きます。
  • チャットボットが説明するウォーターマークやフレームの異常についての理論は実践では適用されません。

現代の人工知能のパラドックス

人工知能が現代の問題に対する解決策として頻繁に宣伝される一方で、最先端の自社作成物を識別できないのはパラドックスです。チャットボットは検知について広範な説明を提供しますが、最終的に失敗します。この発見は、オンラインの視覚情報の完全性を真正に保護できるツールを開発するために、異なるより具体的なアプローチが必要であることを強調しています。