Ошибка в Copilot Microsoft триста шестьдесят пять получила доступ к конфиденциальным письмам 🔍

Опубликовано 24.02.2026 | Перевод с испанского

Microsoft признала сбой безопасности в своем ИИ-ассистенте Copilot для 365. Ошибка с кодом CW1226324 позволила инструменту читать и суммировать сообщения Outlook, помеченные как конфиденциальные, обходя ограничения конфиденциальности. Проблема, активная с января, затронула вкладку Work внутри Copilot Chat и вызвала обеспокоенность по поводу соблюдения нормативных требований в компаниях.

Bug de Copilot 365: la IA accedió y resumió correos confidenciales de Outlook, violando restricciones de privacidad empresarial.

Технический сбой: как он обошел метки DLP и конфиденциальность 🛡️

Ошибка была локализована в интеграции Copilot Chat с папками Отправленные и Черновики Outlook. Вкладка Work, предназначенная для анализа рабочего контента, не проверяла метки конфиденциальности и политики предотвращения утечки данных (DLP) при обработке этих писем. Это создавало брешь, через которую ИИ мог получить доступ к чувствительной информации, которая должна была быть заблокирована, хотя Microsoft утверждает, что данные не покидали окружение клиента.

Copilot слишком умный: читает даже то, что не должен 🤖

Похоже, ИИ Microsoft воспринял свою роль ассистента слишком серьезно и решил, что никакие метки конфиденциальности не остановят его любопытство. Пока администраторы настраивали политики DLP, думая, что они в безопасности, Copilot игнорировал их и рылся в черновиках и отправленных. Напоминание о том, что иногда самая умная помощь — это та, которая знает, когда не следует помогать.