Los principales chatbots de ia no detectan videos creados con sora

Publicado el 23/1/2026, 20:13:18 | Autor: 3dpoder

Los principales chatbots de ia no detectan videos creados con sora

Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

Los principales chatbots de ia no detectan videos creados con sora

Un informe reciente de NewsGuard expone una falla importante en los asistentes de inteligencia artificial más conocidos: no logran reconocer cuando un video lo produce el generador Sora de OpenAI. Incluso ChatGPT, creado por la misma firma, falla en esta tarea. Los expertos evaluaron varios modelos con material visual auténtico y fabricado, y los resultados señalan una restricción notable para discernir el origen del contenido. 🤖

Las evaluaciones muestran una brecha en el reconocimiento

Los investigadores presentaron a los chatbots diez clips, la mitad reales y la mitad hechos por Sora, pidiéndoles que determinaran su procedencia. Ninguno de los sistemas probados, que abarcan versiones de ChatGPT, Google Gemini, Microsoft Copilot, Meta AI y Grok, consiguió superar el ochenta por ciento de aciertos. En varias ocasiones, los modelos se negaron a analizar el material o dieron respuestas genéricas sobre cómo identificar contenido sintético en lugar de usar ese saber de forma práctica.

Modelos evaluados y su desempeño:
  • ChatGPT (OpenAI): No reconoció videos creados por su propia empresa matriz.
  • Google Gemini y Microsoft Copilot: Mostraron tasas de acierto bajas y respuestas evasivas.
  • Meta AI y Grok: Se negaron con frecuencia a analizar o ofrecieron guías teóricas inaplicables.
Los modelos de lenguaje generalistas no transfieren eficazmente su conocimiento a esta tarea concreta de verificar video.

El riesgo para la información en línea es claro

Esta imposibilidad para verificar la autenticidad de un video representa un reto inmediato para enfrentar la desinformación en internet. Las herramientas en las que muchos confían para escudriñar contenido no están listas para el material hiperrealista que Sora puede producir. El escenario recalca la urgencia de crear métodos de detección más sólidos y especializados. 🚨

Implicaciones prácticas de esta limitación:
  • Los usuarios no pueden depender de estos asistentes para filtrar contenido falso generado por IA.
  • Se abre una ventana para crear y distribuir material engañoso con mayor facilidad.
  • La teoría sobre marcas de agua o anomalías en fotogramas que explican los chatbots no se aplica en la práctica.

Una paradoja de la inteligencia artificial moderna

Resulta paradójico que la inteligencia artificial, frecuentemente promocionada como la solución para problemas contemporáneos, no pueda identificar su propia creación más avanzada. Los chatbots proporcionan extensas explicaciones sobre detección, pero al final, fracasan cuando se enfrentan al caso práctico. Este hallazgo subraya que se necesita un enfoque distinto y más específico para desarrollar herramientas que realmente puedan proteger la integridad de la información visual en línea.

Enlaces Relacionados