Европейский союз готовится сделать решительный шаг против цифровых злоупотреблений. Новое законодательство расширит запрет на несогласованные сексуальные дипфейки, прямо включив в него материалы сексуального насилия над детьми, созданные искусственным интеллектом. Это попытка закрыть лазейку для технологии, позволяющей создавать незаконный контент без реальных жертв в момент генерации.
ИИ как инструмент создания и обнаружения 🤖
Законодательная инициатива обяжет платформы внедрять системы модерации, способные выявлять такой синтетический материал. Генеративные модели, обученные на данных реальных злоупотреблений, создают изображения, воспроизводящие узнаваемые шаблоны. Для обнаружения рассматриваются инструменты анализа метаданных и цифровые водяные знаки. Техническая задача колоссальна: отличить изображение, созданное ИИ, от реальной фотографии, когда оба показывают похожие сцены.
Парадокс цифрового художника с дурными намерениями 🎭
Теперь создателям дипфейков придётся искать другой способ зарабатывать на жизнь, возможно, вернувшись к старым добрым временам неуклюжего фотошопа. Ведь да, до ИИ уже существовали монтажи, но они требовали часов работы и определённой любви к деталям. ЕС как бы говорит: если уж ты собираешься быть преступником, пусть это хотя бы стоит тебе времени и усилий, а не просто написания промпта в красивом интерфейсе 😈