Google выпустил четкое предупреждение: киберпреступники интегрируют искусственный интеллект в свои атаки. Согласно их отчету, хакеры используют джейлбрейкинг на основе личностей, чтобы обманывать модели ИИ и заставлять их выявлять уязвимости. Кроме того, они подпитывают системы данными об известных сбоях, чтобы дорабатывать эксплойты перед их запуском. Тревожная эволюция.
Как атакующие обучают ИИ охотиться на уязвимости 🤖
Процесс не магический. Атакующие применяют техники джейлбрейкинга, которые присваивают ИИ вымышленные личности, заставляя его игнорировать свои этические ограничения. Затем они вводят базы данных уязвимостей (CVE), чтобы модель изучала шаблоны эксплуатации. Результат — ассистент, способный предлагать персонализированные векторы атак, сокращая время поиска уязвимостей с недель до часов.
ИИ — стажёр, который теперь знает об эксплойтах больше вас 🧠
Это как иметь стажёра, который вместо того, чтобы принести вам кофе, точно говорит, какую дверь оставить открытой, чтобы пробраться в офис. Хакеры превратили ИИ в того молчаливого товарища, который никогда не спит и думает только о том, как что-то сломать. Хуже всего: он быстро учится. Скоро он попросит прибавку к зарплате в биткоинах.