安全倫理
OpenAI 前 CTO Mira Murati 法庭作證:Sam Altman 在 AI 安全標準上向她撒謊
Mira Murati tells the court that she couldn’t trust Sam Altman’s words

The Verge AI · 2026-05-06
摘要
在 Musk v. Altman 訴訟案中,OpenAI 前首席技術官 Mira Murati 以宣誓證人身分作證,指控 CEO Sam Altman 就新 AI 模型的安全標準向她撒謊。Murati 表示 Altman 聲稱 OpenAI 法律部門核准了該模型的安全性,但實際情況並非如此。這揭露了 OpenAI 內部在 AI 安全治理上可能存在的管理層級失當和信任危機。
●開發者:應關注 AI 模型安全評估流程的標準化和透明度
●投資人:OpenAI 內部治理風險值得重視,可能影響公司估值和聲譽
●一般用戶:涉及 AI 模型發佈時的安全把關流程,攸關所用產品的安全性
重要性評分
🟠 值得關注
喜歡這篇?每天早晨還有更多。
訂閱 5min AI,讓 AI 替你追蹤整個 AI 世界。
相關指南

2026 生成式 AI 安全實戰:企業防範與倫理指南
深入解析 2026 AI 安全策略,提供企業防範生成式 AI 風險的實戰步驟,涵蓋安全合規檢查與 AI 倫理規範落地指南,助您構建可信 AI 生態。
閱讀指南 →
OpenAI 模型完整指南 2026:GPT-5、GPT-4.1、o3 怎麼選
2026 年 OpenAI 模型大洗牌:GPT-5 已取代一切,o3 專攻複雜推理,GPT-4.1 仍是 API 最佳 CP 值選項。一篇看懂各模型差異、定價與最適用情境,不再選錯。
閱讀指南 →
Codex Security 怎麼用?實戰指南:AI 安全代理如何自動檢測並修補複雜漏洞
想知道 Codex Security 怎麼用?本文詳細解析 OpenAI 推出的 AI 安全代理功能,從專案上下文分析、漏洞檢測到自動修補的完整流程,協助開發者提升程式碼安全性。
閱讀指南 →🤖 本文摘要由 AI 自動生成,內容源自原始報導。如有疑慮,請參閱關於我們。
喜歡這篇?每天早晨還有更多。
訂閱 5min AI,讓 AI 替你追蹤整個 AI 世界。