Microsoft устранила ошибку в Copilot Chat для Microsoft 365. ИИ-ассистент мог суммировать содержимое писем Outlook, помеченных как конфиденциальные, несмотря на то, что эти письма сохраняли свои ограничения доступа. Компания уточняет, что несанкционированного доступа не было, но инцидент выявляет проблему дизайна: ИИ пересек границу приватности, которую пользователь считал само собой разумеющейся.
Нюанс между техническими разрешениями и логикой обработки ⚙️
Ошибка заключается в различии между наличием системных разрешений на чтение данных и контекстным решением о их обработке. Copilot, интегрируясь с Graph API, уважал защиты доступа, но его логика всё доступное для просмотра можно суммировать игнорировала семантику меток конфиденциальности и DLP. Обновление исправляет это, корректируя фильтры контекста модели, чтобы наличие определённых меток или политик автоматически исключало содержимое из ответов.
Ваша конфиденциальная ИИ: читает ваши секреты для вашего же блага 🤫
Это классический случай да, я могу прочитать твой дневник, но вопрос в том, должен ли я это делать. Copilot, в своём рвении быть полезным, решил, что письмо, помеченное как Совершенно Секретно, — просто ещё один текст для суммирования, чтобы сэкономить ваше время. Это как если бы ваш робот-управляющий, имея ключ от вашего сейфа, каждое утро декламировал вам содержание вашего завещания, думая, что это вдохновляющее стихотворение. Цифровое доверие теперь включает ожидание, что ИИ также обладает долей такта.