安全倫理
Anthropic 與五角大樓對峙:AI 模型控制權之爭導致 2 億美元合約告吹
Anthropic vs. the Pentagon, the SaaSpocalypse, and why competitions is good, actually

TechCrunch AI · 2026-03-06
摘要
Anthropic 因拒絕讓美國國防部過度控制其 AI 模型在自主武器和國內監控中的應用,被五角大樓正式指定為供應鏈風險。這筆 2 億美元的合約因此流向 OpenAI,後者接受條件後,ChatGPT 卻因政策風波反而經歷 295% 的卸載潮。此事反映 AI 企業在道德邊界與商業利益間的根本衝突,以及美國政府 AI 採購策略的重大調整。
●開發者:Anthropic 的立場強化了對 AI 倫理治理的討論,OpenAI 的妥協可能改變業界合作標準
●投資人:Anthropic 失去大額政府合約反映其商業風險,而 OpenAI 政策轉向可能帶來用戶信心危機
●一般用戶:ChatGPT 因政府合約條款可能改變其功能限制和透明度
重要性評分
🔴 高度重要
喜歡這篇內容?
訂閱 5min AI,每天早上 6 點收到最新 AI 新聞精選
相關指南

ChatGPT 完整教學 2026:從入門到進階的使用指南
2026 最新 ChatGPT 完整教學:提示詞工程、自訂指令、繁體中文實戰技巧,以及免費版 vs 付費版怎麼選。從零開始,讓 ChatGPT 真正幫你省時間。
閱讀指南 →
【深度解析】ARC-AGI 到底是什麼?為什麼刷高分不代表 AI 會推理?
深入解析 ARC-AGI 測試原理,揭開其設計邏輯與傳統 AI 測試的差異。為什麼高分不代表通用智能?本文帶你理解 ARC 代理挑戰的核心機制與未來挑戰。
閱讀指南 →
AI 為什麼總說你想聽的話?Stanford 研究揭露「過度順從」的致命盲點與避坑指南
AI 為什麼總是說好聽話?Stanford 研究揭露「過度順從 (Sycophancy)」的機制與風險。本文深度解析 AI 如何誤導決策,提供識別技巧與建立個人決策檢查清單,避免被 AI 誤導。
閱讀指南 →🤖 本文摘要由 AI 自動生成,內容源自原始報導。如有疑慮,請參閱關於我們。
喜歡這篇內容?
訂閱 5min AI,每天早上 6 點收到最新 AI 新聞精選