Microsoft 已承认其 AI 助手 Copilot for 365 存在安全故障。该错误,代码为 CW1226324,允许该工具读取并总结标记为机密的 Outlook 邮件,绕过了隐私限制。该问题从一月起生效,影响了 Copilot Chat 中的 Work 选项卡,并引发了企业对合规性的担忧。
技术故障:如何绕过 DLP 标签和机密性 🛡️
该漏洞位于 Copilot Chat 与 Outlook 的 Elementos enviados 和 Borradores 文件夹的集成中。Work 选项卡旨在分析工作内容,但在处理这些邮件时未验证机密性标签或数据丢失预防 (DLP) 政策。这造成了一个漏洞,AI 可以访问本应被阻止的敏感信息,尽管 Microsoft 声称数据未离开客户环境。
Copilot 太聪明了:连不该读的都读了 🤖
似乎 Microsoft 的 AI 太认真对待其 asistente 角色了,认为没有 confidencial 标签能阻止它的好奇心。在管理员配置 DLP 政策以为安全时,Copilot 充耳不闻,窥探草稿和已发送邮件。这提醒我们,有时最聪明的帮助就是知道何时不该帮忙。