
Основные чат-боты ИИ не обнаруживают видео, созданные с помощью Sora
Недавний отчет NewsGuard выявляет серьезный недостаток в наиболее известных ассистентах искусственного интеллекта: они не способны распознавать, когда видео создано генератором Sora от OpenAI. Даже ChatGPT, созданный той же компанией, терпит неудачу в этой задаче. Эксперты оценили несколько моделей с использованием аутентичного и сфабрикованного визуального материала, и результаты указывают на заметное ограничение в определении происхождения контента. 🤖
Оценки показывают пробел в распознавании
Исследователи представили чат-ботам десять клипов, половину реальных и половину созданных Sora, попросив их определить их происхождение. Ни одна из протестированных систем, включая версии ChatGPT, Google Gemini, Microsoft Copilot, Meta AI и Grok, не смогла превысить восемьдесят процентов точности. В нескольких случаях модели отказывались анализировать материал или давали общие ответы о том, как идентифицировать синтетический контент, вместо того чтобы применять эти знания на практике.
Оцененные модели и их производительность:- ChatGPT (OpenAI): Не распознал видео, созданные своей собственной материнской компанией.
- Google Gemini и Microsoft Copilot: Показали низкие показатели точности и уклончивые ответы.
- Meta AI и Grok: Часто отказывались анализировать или предлагали неприменимые теоретические руководства.
Общие языковые модели неэффективно переносят свои знания на эту конкретную задачу проверки видео.
Риск для онлайн-информации очевиден
Эта невозможность проверять подлинность видео представляет немедленный вызов в борьбе с дезинформацией в интернете. Инструменты, на которые многие полагаются для проверки контента, не готовы к гиперреалистичному материалу, который может производить Sora. Ситуация подчеркивает срочную необходимость создания более надежных и специализированных методов обнаружения. 🚨
Практические последствия этого ограничения:- Пользователи не могут полагаться на этих ассистентов для фильтрации фальшивого контента, сгенерированного ИИ.
- Открывается окно для создания и распространения обманчивого материала с большей легкостью.
- Теория о водяных знаках или аномалиях в кадрах, которую объясняют чат-боты, не применяется на практике.
Парадокс современной искусственного интеллекта
Парадоксально, что искусственный интеллект, часто продвигаемый как решение современных проблем, не может идентифицировать свое собственное наиболее продвинутое создание. Чат-боты предоставляют подробные объяснения по обнаружению, но в итоге терпят неудачу, сталкиваясь с практическим случаем. Это открытие подчеркивает необходимость другого, более специфического подхода для разработки инструментов, которые действительно смогут защищать целостность визуальной информации в сети.