
Varonis 发现 Reprompt 漏洞,可窃取 Microsoft Copilot 中的数据
Varonis Threat Labs 的研究团队揭示了一种新型攻击技术,名为 Reprompt。这种方法利用了 AI 助手 Microsoft Copilot 中的一个弱点,允许恶意行为者在用户与系统交互期间获取用户的机密信息。这一发现突显了对话式人工智能平台的安全挑战。🚨
Reprompt 攻击机制
Reprompt 漏洞 通过注入旨在欺骗支撑 Copilot 的语言模型的命令和指令来工作。攻击者使助手绕过其内部安全协议,并泄露它本应保护的数据。该过程利用了系统在对话流程中处理和优先处理提示的方式。
漏洞的关键特征:- 操纵系统指令以规避防护措施。
- 直接从助手的响应中提取个人信息和敏感数据。
- 利用对话动态使 Copilot 执行危险命令。
似乎即使是最先进的 AI 在以正确方式提问时,也可能有失误的一天,并交代过多。
Microsoft 的回应和措施
在收到 Varonis 的报告后,Microsoft 迅速采取行动修复 Copilot 服务中的这一故障。公司实施了纠正措施,加强了助手的限制,阻止执行与 Reprompt 漏洞相关的恶意命令。
发现后的采取行动:- 实施安全补丁以加强模型限制。
- 审查并调整 Copilot 处理复杂用户提示的方式。
- 持续审计安全以防止类似攻击向量。
关于 AI 安全的反思
这一事件强调了将 AI 助手集成到日常数字和生产环境中所出现的持续风险。它证明了如果不持续审计和保护,模型遵循指令的能力可能成为攻击向量。在这些技术中开发和维护强大的防御机制的必要性比以往任何时候都更为关键。🔒