📰 2026-03-09 AI 日報

阿凱📝 主編觀點 · 技術趨勢解讀 — 技術上發生什麼,為什麼重要,背後的原理是什麼

Anthropic 拒絕替五角大樓造武器,2億美元合約就這樣飛了

上個月 Anthropic 跟五角大樓的 2 億美元合約談崩了。原因不是報價問題,而是雙方在一件事上談不攏:誰來決定 AI 能不能被用在自主武器和大規模監控? Anthropic 堅持要保留否決權,五角大樓說不行。談判就在這裡斷掉了。 國防部隨後直接轉向 OpenAI,後者沒有這道門檻。從結果來看,Anthropic 的 Constitutional AI 和一堆安全承諾,在真實的採購談判桌上,成了一個讓自己出局的原因。 這件事有幾個層面值得拆。 先看商業邏輯。美國聯邦政府是全球最大的單一採購方之一,國防支出每年幾千億美元。創業公司想拿聯邦合約,一般要花好幾年搞 FedRAMP 認證、ATO 流程、供應鏈審查,門檻本來就高。Anthropic 被列為「供應鏈風險」,等於是直接被 DoD 系統打了標記,這個記錄不會消失。 再看競爭格局。這筆錢流向 OpenAI,代表 OpenAI 在軍事 AI 這條賽道上又前進一步。他們去年就已經修改了使用政策,解除了對軍事用途的限制,現在正在替這個決定收割。Anthropic 當時選擇不跟進,今天就是少了一張牌。 然後是最有意思的部分:Anthropic 的安全立場,到底是護城河,還是天花板? 公司的敘事一直是「我們比較安全,所以值得信任,所以會贏得企業客戶」。這套邏輯在金融、醫療、法律等民間市場確實有效。但軍事採購的邏輯不一樣,政府要的是控制權,不是信任。你告訴甲方「我保留否決你使用方式的權利」,在一般 B2B 就已經很難聽,在國防採購更是直接失格。 2 億美元的直接損失其實不是重點,重點是這件事確認了一件事:Anthropic 的安全路線不是全市場通用的。他們在刻意選擇能接受這套規則的客戶,同時也在放棄那些不接受的。 這是一個選擇,不是一個失誤。但選擇都有代價,這次代價寫得很清楚。
塵子💬 塵子觀點

Google 的 AI 開始幫醫生寫病歷,但沒人問病人願不願意

昨天看到 Google 推出 Amazon Connect Health,專為醫療領域設計的 AI Agent。它會幫你預約、寫病歷、驗證身份,把那些讓醫生頭痛不已的行政流程自動化。聽起來很美好,對吧?醫生可以少寫幾行字,病人不用等三小時。 問題是,這些 AI 正在讀取你的病歷。它不只是在「處理」資料,它是在「理解」你的痛苦、你的隱私、你不想讓別人知道的事情。當 AI 開始替醫生寫病歷時,它其實是在替醫生「思考」什麼該寫、什麼不該寫。這背後有一個很微妙的轉移:原本屬於人類醫生與病人之間的信任關係,現在變成了一種數據交換。 更荒謬的是,這些 AI 代理正在被訓練得越來越像人。它們會用你的語氣跟你說話,會模擬你的情緒反應,甚至會根據你的病史給出建議。這讓我不禁想:如果有一天 AI 比醫生更懂你的身體,那我們還需要醫生嗎?或者說,我們需要的是什麼樣的醫生? 這背後其實是一個很簡單的問題:當技術進步到可以取代人類部分職能時,我們到底在追求什麼?是效率,還是人與人的連結? Google 的 AI 正在幫醫生寫病歷,但沒人問病人願不願意。這就像你媽幫你寫情書,卻沒問你喜不喜歡。
🚀 產品速報2026-03-09

AI 如何讓工程回歸人性化:從代碼生成到價值決策的範式轉移

今天我們來談談一個正在改變軟體開發本質的趨勢。過去我們常擔心 AI 會取代工程師,但最新的觀察顯示,AI 的真正角色是將工程師從繁瑣的重複勞動中解放出來,讓他們能更專注於創造性思考與關鍵決策。這不僅是技術的進步,更是一場關於工作內容與流程的深刻變革,讓工程工作回歸解決問題的本質,而非單純的技術執行。 先說最重要的功能:AI 正在承擔大量基礎邏輯與樣式代碼的編寫任務。以大型語言模型為例,它們能自動生成代碼、處理除錯,甚至分析專案上下文來檢測並修復複雜的安全漏洞。像 OpenAI 最新推出的 Codex Security 工具,就能深入理解專案細節,顯著降低誤報率並提升修復信心。這意味著工程師不再需要親力親為地編寫每一個底層函式,而是可以將精力轉移到更核心的架構設計上。...

Google 推出 Gemini 3.1 Pro 與 Nano Banana 2 模型,同時 AWS 推出專為醫療領域設計的 AI Agent 平台,展現大模型與垂直應用的雙重突破。OpenAI 內部爭議與 Anthropic 聯邦合約破裂的風波,則凸顯了行業在快速擴張中面臨的治理與合規挑戰。這些動態共同指向一個趨勢:AI 正從技術競賽轉向更務實、人性化且符合社會規範的落地應用。

Google 推出 Gemini 3.1 Pro 與 Nano Banana 2 模型

Google 推出 Gemini 3.1 Pro 與 Nano Banana 2 模型

Google 在二月宣布推出 Gemini 3.1 Pro 與 Nano Banana 2 兩款新模型,展現其在大型語言模型領域的持續創新。這些更新標誌著 Google 在提升模型效能與擴展應用場景上邁出重要一步,將進一步影響市場競爭格局。

Gemini大型語言模型Google AI
Google AI Blog
AI 將使工程更人性化而非更疏離

AI 將使工程更人性化而非更疏離

這篇文章探討在現代開發階段中,AI 如何改變工作內容與流程,同時強調人類在創造性與決策上的核心地位。它指出技術進步並非為了取代工程師,而是為了增強人類的能力,讓工程工作回歸本質。這對於理解未來技術與人文的平衡發展至關重要。

AI 工程人機協作開發流程
The Rundown AI
Amodei 洩漏備忘錄揭露 OpenAI 內部爭議

Amodei 洩漏備忘錄揭露 OpenAI 內部爭議

前 OpenAI 高層 Dario Amodei 透過洩漏的內部備忘錄,公開批評公司目前的戰略方向與治理問題,引發業界對 OpenAI 未來發展的重大關注。這份文件不僅揭示了技術團隊與管理層之間的張力,也凸顯了大型 AI 公司內部決策過程的透明度危機。

OpenAIAmodei內部洩漏
The Rundown AI
Anthropic 與 Pentagon 合約破裂,為創業公司追尋聯邦合約敲響警示鐘

Anthropic 與 Pentagon 合約破裂,為創業公司追尋聯邦合約敲響警示鐘

五角大樓因無法就自主武器與大規模監控的控制權達成共識,將 Anthropic 列為供應鏈風險,導致價值 2 億美元的合約破局。隨後國防部轉向 OpenAI,而 Anthropic 的失敗凸顯了創業公司在承接政府合約時面臨的合規與倫理高門檻。

AnthropicPentagon供應鏈風險
TechCrunch AI
AWS 推出專為醫療領域設計的 AI Agent 平台 Amazon Connect Health

AWS 推出專為醫療領域設計的 AI Agent 平台 Amazon Connect Health

AWS 正式推出 Amazon Connect Health,這是一個專為醫療產業打造的 AI Agent 平台,旨在自動化處理病人預約排程、醫療文檔撰寫及身份驗證等任務。此舉標誌著雲端巨頭將 AI 代理技術深入垂直領域,試圖解決醫療行政流程冗長且高成本的痛點。

AWSAI Agent醫療科技
TechCrunch AI
Codex Security 進入研究預覽階段

Codex Security 進入研究預覽階段

OpenAI 推出 Codex Security,這是一款專用於應用程式安全的人工智慧代理,能深入分析專案上下文以檢測並修復複雜漏洞。透過降低誤報率並提升修復信心,該工具顯著提高了軟體開發流程中的安全性與效率。

Codex Security應用程式安全漏洞修復
OpenAI Blog

今日洞察

Google 推出新模型顯示技術迭代加速,同時 AI 正從替代人類轉向增強工程師創造力,強化人機協作本質。然而,OpenAI 內部治理危機與 Anthropic 聯邦合約破裂,凸顯大型企業在倫理合規與決策透明度上的深層矛盾,警示創業公司進入政府市場的高門檻。與此同時,AWS 醫療 AI 代理與 OpenAI 安全 Codex 的落地,標誌著技術應用已深入垂直領域與基礎建設。整體而言,產業正從單純的效能競賽,轉向解決醫療效率、軟體安全及組織治理等實際痛點,未來競爭將取決於如何平衡技術創新與社會責任。

🔮 趨勢雷達

未來三至六個月,Google 的 Nano 系列模型將推動邊緣運算成為主流,迫使硬體廠商加速整合本地化推理能力。同時,OpenAI 內部治理醜聞將引發資本市場對純商業化大模型的審視,導致非核心領域的投資在 Q3 顯著降溫。醫療與國防領域的 AI 應用將遭遇嚴格的合規壁壘,Amazon Connect Health 的成功案例將迫使更多垂直行業轉向私有化部署以規避風險。軟體開發方面,自動修復漏洞的 Codex Security 將取代傳統掃描工具,成為 Q4 安全開發流程的標準配置,而政府合約的收縮將迫使創業公司放棄泛化策略,轉向具備明確倫理邊界的垂直解決方案。