微软 Copilot 漏洞导致 AI 读取机密邮件
微软本周证实,其 Microsoft 365 Copilot Chat 存在一个漏洞,该漏洞允许 AI 助手读取并总结标记为机密的邮件,绕过了组织用于保护敏感信息的数据防泄漏策略。
据 BleepingComputer 获取的服务警报显示,该问题编号为 CW1226324,于 2026 年 1 月 21 日首次被发现。该漏洞特别影响了 Copilot "工作标签"聊天功能,该功能错误地处理了存储在用户已发送邮件和草稿文件夹中的邮件——包括那些带有机密标签、明确设计用于限制自动化工具访问的邮件。
微软在其公告中表示:"应用了机密标签的用户电子邮件正被 Microsoft 365 Copilot 聊天功能错误地处理。""即使这些电子邮件应用了敏感度标签并配置了 DLP 策略,Microsoft 365 Copilot '工作标签'聊天功能仍在总结这些邮件。"
根本原因和修复推送
微软将该漏洞归因于一个未明确说明的代码错误,并于2月初开始推送修复程序。该公司表示"代码问题导致已发送邮件和草稿文件夹中的项目被Copilot获取,即使这些项目已设置机密标签"。
截至周三,微软表示正在继续监控部署情况,并联系部分受影响用户以验证修复是否有效。该公司尚未提供完全修复的最终时间表。
据The Register报道,该安全公告还被英国国家医疗服务体系(NHS)支持门户转发,凸显了该问题对医疗保健等敏感行业的影响,这些领域的机密数据保护至关重要。
影响范围尚不明确
微软尚未披露有多少用户或组织受到影响,仅表示"影响范围可能会变化",调查仍在继续。该事件被标记为公告级别,这一分类通常用于范围有限的问题。
安全分析师指出,这个漏洞尤其令人担忧,因为"已发送邮件"文件夹通常包含对外发送的企业通信内容——这正是组织希望避免被AI抓取的内容类型。Outlook中的机密标记常用于商业协议、法律通信、政府询问和个人健康信息。
这个漏洞提醒人们,企业在确保AI驱动的工具遵守数据治理控制方面面临着挑战。虽然微软的文档表明敏感度标签应该限制Copilot访问受保护的内容,但这次事件表明,这些保护措施在实践中可能会失效。