Дипфейки в две тысячи двадцать шестом: когда видеть — не значит верить

10.05.2026 Опубликовано | Переведено с испанского

Дипфейки перестали быть научной фантастикой и стали повседневной реальностью. С помощью таких инструментов, как Kling 3.0 или Veo 3, любой может за считанные минуты создать поддельное видео. Искусственный интеллект заменяет лица, клонирует голоса и создает вымышленные сцены с реализмом, обманывающим человеческий глаз. Обнаружить эти манипуляции простым наблюдением уже невозможно; единственная надежная защита — отслеживать происхождение контента.

Пикселизированный человеческий глаз распадается перед экраном, показывающим лица, сгенерированные ИИ, с лозунгом «Видеть — не значит верить», наложенным цифровым шрифтом.

Как работают генеративно-состязательные сети 🤖

Эти подделки основаны на генеративно-состязательных сетях, где две модели соревнуются за улучшение качества результата. Одна генерирует поддельный контент, в то время как другая пытается его обнаружить; после тысяч итераций подделка становится неотличимой. Kling 3.0 использует продвинутые диффузионные модели для обработки видео в реальном времени, в то время как Veo 3 оптимизирует синхронизацию губ и согласованность освещения. Результат — настолько отшлифованный продукт, что даже системы автоматического обнаружения часто дают сбой.

Родственник, который уже отправил вам дипфейк 😅

Скорее всего, ваш технически подкованный родственник уже поделился дипфейком в группе WhatsApp. Да, то видео с танцующим сальсу политиком было ненастоящим. Хуже всего то, что теперь даже ваша тётя знает об этом, но ей всё равно, потому что она находит это забавным. Тем временем эксперты рекомендуют проверять источники и не доверять даже собственным глазам. То есть, если ваш начальник просит прибавку по видеозвонку, лучше перезвоните ему по телефону.