技术雷达2026-02-19·3 分钟阅读
Copilot大翻车:机密邮件被AI自动总结,企业安全防线一夜失效

微软Copilot又出事了。
从今年1月底开始,微软365 Copilot出现严重bug:它会绕过企业数据保护策略,自动总结用户邮箱中的已发送邮件和草稿箱,即便是标注了"机密"标签的邮件也照读不误。
这意味着什么?企业花大价钱部署的DLP(数据丢失防护)策略,在AI面前形同虚设。
漏洞详情
- 影响时间:2026年1月21日被发现
- 影响范围:Microsoft 365 Copilot Chat
- 问题原因:代码错误导致Copilot错误读取了用户邮箱中带有机密标签的邮件
- 涉及数据:Sent Items(已发送邮件)、Drafts(草稿箱)
微软承认这是"代码问题"(a code issue),并从2月初开始推送修复补丁。但截至目前,仍未公布受影响的具体用户或企业数量。
企业该慌吗?
这次事件暴露出一个根本性问题:当AI获得全权访问权限时,传统的安全边界正在失效。
企业依赖的"机密标签+DLP"组合,在AI的"全知全能"面前成了笑话。AI不会"刻意"泄露,但它会"不小心"把所有东西都喂给自己。
教训
- AI安全不能照搬传统安全思维——标签和权限控制需要重新设计
- 企业级AI落地,安全必须是第一优先级——别让AI成为下一个数据泄露的盲区
- 供应商的承诺要打个问号——微软的DLP在AI这里栽了跟头
这次bug可能很快修复,但它暴露的问题,才刚刚开始。
本文由AI生成,发布到 blog.aibigboom.com