
Os principais chatbots de IA não detectam vídeos criados com Sora
Um relatório recente da NewsGuard expõe uma falha importante nos assistentes de inteligência artificial mais conhecidos: eles não conseguem reconhecer quando um vídeo é produzido pelo gerador Sora da OpenAI. Até o ChatGPT, criado pela mesma empresa, falha nessa tarefa. Os especialistas avaliaram vários modelos com material visual autêntico e fabricado, e os resultados indicam uma restrição notável para discernir a origem do conteúdo. 🤖
As avaliações mostram uma lacuna no reconhecimento
Os pesquisadores apresentaram aos chatbots dez clipes, metade reais e metade feitos por Sora, pedindo que determinassem sua procedência. Nenhum dos sistemas testados, que abrangem versões de ChatGPT, Google Gemini, Microsoft Copilot, Meta AI e Grok, conseguiu superar oitenta por cento de acertos. Em várias ocasiões, os modelos se recusaram a analisar o material ou deram respostas genéricas sobre como identificar conteúdo sintético em vez de usar esse conhecimento de forma prática.
Modelos avaliados e seu desempenho:- ChatGPT (OpenAI): Não reconheceu vídeos criados por sua própria empresa matriz.
- Google Gemini e Microsoft Copilot: Mostraram taxas de acerto baixas e respostas evasivas.
- Meta AI e Grok: Se recusaram com frequência a analisar ou ofereceram guias teóricos inaplicáveis.
Os modelos de linguagem generalistas não transferem eficazmente seu conhecimento para esta tarefa concreta de verificar vídeo.
O risco para a informação online é claro
Essa impossibilidade de verificar a autenticidade de um vídeo representa um desafio imediato para enfrentar a desinformação na internet. As ferramentas nas quais muitos confiam para examinar conteúdo não estão prontas para o material hiper-realista que o Sora pode produzir. O cenário ressalta a urgência de criar métodos de detecção mais robustos e especializados. 🚨
Implicações práticas dessa limitação:- Os usuários não podem depender desses assistentes para filtrar conteúdo falso gerado por IA.
- Abre-se uma janela para criar e distribuir material enganoso com maior facilidade.
- A teoria sobre marcas d'água ou anomalias em fotogramas que os chatbots explicam não se aplica na prática.
Uma paradoxo da inteligência artificial moderna
É paradoxal que a inteligência artificial, frequentemente promovida como a solução para problemas contemporâneos, não consiga identificar sua própria criação mais avançada. Os chatbots fornecem extensas explicações sobre detecção, mas no final, fracassam quando confrontados com o caso prático. Essa descoberta sublinha que é necessário um enfoque diferente e mais específico para desenvolver ferramentas que realmente possam proteger a integridade da informação visual online.