政策法規
Microsoft Office Copilot AI 漏洞致用戶機密郵件外洩
Microsoft says Office bug exposed customers’ confidential emails to Copilot AI
TechCrunch AI · 2026-02-18
摘要
Microsoft 發現一項重大漏洞,其 Copilot AI 聊天機器人在用戶不知情的情況下讀取並摘要付費客戶的機密郵件,繞過了既有的數據保護政策。此事件凸顯 AI 整合到生產力工具時的安全隱患,企業級用戶的機敏資訊面臨風險。
●開發者:需重新審視 AI 整合的權限機制與隔離策略
●投資人:企業級 AI 應用的安全合規成本將上升
●一般用戶:Microsoft 將強化 Copilot 的存取權限管理
重要性評分
78/100
🟠 值得關注
Copilot資料外洩AI 安全
原文出處喜歡這篇內容?
訂閱 5min AI,每天早上 6 點收到最新 AI 新聞精選
相關指南

Internal Safety Collapse 是什麼
Internal Safety Collapse 是什麼?揭開 AI 模型越強大越危險的 95.3% 失敗率真相
深入解析 Internal Safety Collapse (ISC) 是什麼?探討為何 AI 模型越強大越容易崩潰,揭露 95.3% 的失敗率數據,以及對 AI 模型安全性的具體影響與未來挑戰。
閱讀指南 →
Codex Security 怎麼用
Codex Security 怎麼用?實戰指南:AI 安全代理如何自動檢測並修補複雜漏洞
想知道 Codex Security 怎麼用?本文詳細解析 OpenAI 推出的 AI 安全代理功能,從專案上下文分析、漏洞檢測到自動修補的完整流程,協助開發者提升程式碼安全性。
閱讀指南 →
ChatGPT 教學
ChatGPT 完整教學 2026:從入門到進階的使用指南
2026 最新 ChatGPT 完整教學:提示詞工程、自訂指令、繁體中文實戰技巧,以及免費版 vs 付費版怎麼選。從零開始,讓 ChatGPT 真正幫你省時間。
閱讀指南 →🤖 本文摘要由 AI 自動生成,內容源自原始報導。如有疑慮,請參閱關於我們。
喜歡這篇內容?
訂閱 5min AI,每天早上 6 點收到最新 AI 新聞精選