Os principais chatbots de IA não detectam vídeos criados com Sora

Publicado em 27 de January de 2026 | Traduzido do espanhol
Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

Os principais chatbots de IA não detectam vídeos criados com Sora

Um relatório recente da NewsGuard expõe uma falha importante nos assistentes de inteligência artificial mais conhecidos: eles não conseguem reconhecer quando um vídeo é produzido pelo gerador Sora da OpenAI. Até o ChatGPT, criado pela mesma empresa, falha nessa tarefa. Os especialistas avaliaram vários modelos com material visual autêntico e fabricado, e os resultados indicam uma restrição notável para discernir a origem do conteúdo. 🤖

As avaliações mostram uma lacuna no reconhecimento

Os pesquisadores apresentaram aos chatbots dez clipes, metade reais e metade feitos por Sora, pedindo que determinassem sua procedência. Nenhum dos sistemas testados, que abrangem versões de ChatGPT, Google Gemini, Microsoft Copilot, Meta AI e Grok, conseguiu superar oitenta por cento de acertos. Em várias ocasiões, os modelos se recusaram a analisar o material ou deram respostas genéricas sobre como identificar conteúdo sintético em vez de usar esse conhecimento de forma prática.

Modelos avaliados e seu desempenho:
  • ChatGPT (OpenAI): Não reconheceu vídeos criados por sua própria empresa matriz.
  • Google Gemini e Microsoft Copilot: Mostraram taxas de acerto baixas e respostas evasivas.
  • Meta AI e Grok: Se recusaram com frequência a analisar ou ofereceram guias teóricos inaplicáveis.
Os modelos de linguagem generalistas não transferem eficazmente seu conhecimento para esta tarefa concreta de verificar vídeo.

O risco para a informação online é claro

Essa impossibilidade de verificar a autenticidade de um vídeo representa um desafio imediato para enfrentar a desinformação na internet. As ferramentas nas quais muitos confiam para examinar conteúdo não estão prontas para o material hiper-realista que o Sora pode produzir. O cenário ressalta a urgência de criar métodos de detecção mais robustos e especializados. 🚨

Implicações práticas dessa limitação:
  • Os usuários não podem depender desses assistentes para filtrar conteúdo falso gerado por IA.
  • Abre-se uma janela para criar e distribuir material enganoso com maior facilidade.
  • A teoria sobre marcas d'água ou anomalias em fotogramas que os chatbots explicam não se aplica na prática.

Uma paradoxo da inteligência artificial moderna

É paradoxal que a inteligência artificial, frequentemente promovida como a solução para problemas contemporâneos, não consiga identificar sua própria criação mais avançada. Os chatbots fornecem extensas explicações sobre detecção, mas no final, fracassam quando confrontados com o caso prático. Essa descoberta sublinha que é necessário um enfoque diferente e mais específico para desenvolver ferramentas que realmente possam proteger a integridade da informação visual online.