Un análisis de NewsGuard revela que los asistentes de inteligencia artificial más populares no pueden identificar si un video se creó con el generador Sora de OpenAI. Incluso ChatGPT, desarrollado por la misma empresa, falla al realizar esta tarea. Los especialistas sometieron a prueba a varios modelos con contenido sintético y auténtico, y los resultados muestran una limitación significativa en su capacidad para discernir el origen del material visual.


Las pruebas exponen una brecha crítica en el reconocimiento

Los evaluadores presentaron a los chatbots diez videos, cinco reales y cinco fabricados por Sora, y les pidieron que determinaran su procedencia. Ninguno de los sistemas analizados, que incluyen versiones de ChatGPT, Google Gemini, Microsoft Copilot, Meta AI y Grok, logró superar el 80% de aciertos. En algunos casos, los modelos simplemente se negaron a analizar el contenido o ofrecieron respuestas genéricas sobre cómo detectar material sintético en lugar de aplicar ese conocimiento.

Las implicaciones para la desinformación son evidentes

Esta incapacidad para verificar la autenticidad del video plantea un desafío inmediato para combatir la desinformación en línea. Las herramientas que muchos usuarios confían para analizar contenido no están preparadas para enfrentar el material hiperrealista que produce Sora. La situación subraya la necesidad de desarrollar métodos de detección más robustos y especializados, ya que los modelos de lenguaje generalistas no parecen transferir eficazmente su conocimiento a esta tarea concreta.

Parece irónico que la inteligencia artificial, que a menudo se presenta como la solución definitiva para los problemas modernos, no pueda reconocer su propia obra más avanzada. Los chatbots ofrecen largas explicaciones sobre marcas de agua digitales o anomalías en los fotogramas, pero al final, no pueden aplicar esa teoría cuando se les presenta el caso práctico.