主要AI聊天机器人无法检测用Sora创建的视频

发布于 2026年02月22日 | 从西班牙语翻译
Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

主要AI聊天机器人无法检测用Sora创建的视频

最近NewsGuard的一份报告暴露了最知名的人工智能助手的一个重大缺陷:它们无法识别视频是由OpenAI的生成器Sora产生的。即使是由同一家公司创建的ChatGPT,在这项任务中也失败了。专家们用真实和伪造的视觉材料评估了多个模型,结果显示在辨别内容来源方面存在显著限制。🤖

评估显示识别存在差距

研究人员向聊天机器人展示了十个视频片段,一半是真实的,一半是由Sora制作的,并要求它们确定来源。测试的所有系统,包括ChatGPT、Google Gemini、Microsoft Copilot、Meta AI和Grok的版本,都未能超过80%的准确率。在许多情况下,这些模型拒绝分析材料,或给出关于如何识别合成内容的通用回答,而不是实际应用这些知识。

评估模型及其表现:
  • ChatGPT (OpenAI):未识别其母公司创建的视频。
  • Google Gemini和Microsoft Copilot:显示低准确率和回避性回答。
  • Meta AI和Grok:经常拒绝分析或提供不适用的理论指南。
通用语言模型无法有效将其知识转移到这项具体的视频验证任务。

在线信息风险显而易见

这种无法验证视频真实性的情况,对应对互联网上的虚假信息构成了紧迫挑战。许多人依赖的用于审查内容的工具尚未准备好应对Sora能够产生的超真实材料。这一情景强调了创建更强大和专业的检测方法的紧迫性。🚨

这一限制的实际影响:
  • 用户不能依赖这些助手来过滤由AI生成的虚假内容。
  • 为创建和分发欺骗性材料打开了更容易的窗口。
  • 聊天机器人解释的水印或帧异常的理论在实践中并不适用。

现代人工智能的悖论

讽刺的是,经常被宣传为解决当代问题的人工智能,却无法识别其最先进的自身创作。聊天机器人提供详尽的检测解释,但最终在实际案例中失败。这一发现强调,需要一种不同且更具体的途径来开发真正能够保护在线视觉信息完整性的工具。