Основные чат-боты ИИ не обнаруживают видео, созданные с помощью Sora

Опубликовано 28.01.2026 | Перевод с испанского
Captura de pantalla que compara un video real con uno generado por Sora de OpenAI, mostrando la dificultad para distinguirlos a simple vista.

Основные чат-боты ИИ не обнаруживают видео, созданные с помощью Sora

Недавний отчет NewsGuard выявляет серьезный недостаток в наиболее известных ассистентах искусственного интеллекта: они не способны распознавать, когда видео создано генератором Sora от OpenAI. Даже ChatGPT, созданный той же компанией, терпит неудачу в этой задаче. Эксперты оценили несколько моделей с использованием аутентичного и сфабрикованного визуального материала, и результаты указывают на заметное ограничение в определении происхождения контента. 🤖

Оценки показывают пробел в распознавании

Исследователи представили чат-ботам десять клипов, половину реальных и половину созданных Sora, попросив их определить их происхождение. Ни одна из протестированных систем, включая версии ChatGPT, Google Gemini, Microsoft Copilot, Meta AI и Grok, не смогла превысить восемьдесят процентов точности. В нескольких случаях модели отказывались анализировать материал или давали общие ответы о том, как идентифицировать синтетический контент, вместо того чтобы применять эти знания на практике.

Оцененные модели и их производительность:
  • ChatGPT (OpenAI): Не распознал видео, созданные своей собственной материнской компанией.
  • Google Gemini и Microsoft Copilot: Показали низкие показатели точности и уклончивые ответы.
  • Meta AI и Grok: Часто отказывались анализировать или предлагали неприменимые теоретические руководства.
Общие языковые модели неэффективно переносят свои знания на эту конкретную задачу проверки видео.

Риск для онлайн-информации очевиден

Эта невозможность проверять подлинность видео представляет немедленный вызов в борьбе с дезинформацией в интернете. Инструменты, на которые многие полагаются для проверки контента, не готовы к гиперреалистичному материалу, который может производить Sora. Ситуация подчеркивает срочную необходимость создания более надежных и специализированных методов обнаружения. 🚨

Практические последствия этого ограничения:
  • Пользователи не могут полагаться на этих ассистентов для фильтрации фальшивого контента, сгенерированного ИИ.
  • Открывается окно для создания и распространения обманчивого материала с большей легкостью.
  • Теория о водяных знаках или аномалиях в кадрах, которую объясняют чат-боты, не применяется на практике.

Парадокс современной искусственного интеллекта

Парадоксально, что искусственный интеллект, часто продвигаемый как решение современных проблем, не может идентифицировать свое собственное наиболее продвинутое создание. Чат-боты предоставляют подробные объяснения по обнаружению, но в итоге терпят неудачу, сталкиваясь с практическим случаем. Это открытие подчеркивает необходимость другого, более специфического подхода для разработки инструментов, которые действительно смогут защищать целостность визуальной информации в сети.