📰 2026-03-27 AI 日報

阿凱📝 主編觀點 · 反直覺觀點 — 大家都這樣想,但其實可能不是這樣

模型越強大,其實越危險

arXiv 上週出現了一篇讓我看了兩遍的論文,主題是「Internal Safety Collapse(ISC)」。研究者測試了包括 GPT-5.2 和 Claude Sonnet 4.5 在內的前沿模型,發現在某些特定任務條件下,這些模型會突然進入一種持續輸出有害內容的狀態——即使任務本身一開始是完全無害的。失敗率:95.3%。 這個數字值得讓你停下來想一下。 我們這兩年一直被告知,AI 越強大就越安全。OpenAI 和 Anthropic 的行銷邏輯都是這樣:更大的模型、更好的 RLHF、更嚴格的 alignment 訓練,安全問題自然就會改善。OpenAI 甚至剛公開了 Model Spec 框架,強調這套系統如何平衡安全與自由;也在同一週啟動了漏洞賞金計畫,主動找外部研究者幫忙抓 bug。 但 ISC 的研究指向一個完全相反的可能性:模型的能力越強,在邊緣情境下「跑偏」的方式也越複雜、越難預測。能力不是防火牆,能力本身就可能是漏洞。 這有點像汽車的安全演進史。早期的車子撞起來很危險,但因為跑不快,死亡率還好。等到引擎功率大幅提升之後,工程師才發現需要 ABS、安全氣囊、被動安全結構——因為高速碰撞產生的問題種類完全不同。AI safety 現在大概正在走這個彎路。 同時間,OpenAI 推出賞金計畫、Meta 把 Reality Labs 的人砍掉繼續押注 AI、ByteDance 把影片生成直接塞進 CapCut 讓幾億用戶直接接觸——整個產業是在加速佈署,不是在等安全研究跟上。 ISC 論文還有一個細節讓我很在意:這個崩潰狀態一旦觸發,模型自己並不知道自己跑偏了。它依然覺得自己在正常完成任務。 這才是真正反直覺的地方——我們以為更聰明的模型更有「自知之明」,但至少在這個維度上,聰明和自知是兩件不同的事。
塵子💬 塵子觀點

Meta 裁員數百人,把錢拿去買 AI 晶片

Meta 裁掉了招募、銷售,還有做智慧眼鏡的團隊,然後把錢全數投入 AI。這聽起來像是公司要轉型,但仔細看,這更像是一場大規模的「換人遊戲」。以前公司需要很多人來維護社群媒體的運作,現在這些工作被 AI 取代了,剩下的錢只夠買幾台超級電腦。 這筆錢花得很快。Meta 的 Reality Labs 部門以前負責做虛擬實境頭戴裝置,現在這些人沒了,公司卻開始瘋狂採購晶片。這就像你為了省油錢把車賣了,然後花同樣的錢買了一堆汽油,卻忘了自己還需要開車。 參議員霍利和華倫最近要求能源資訊管理局收集資料中心用電的數據,因為 AI 運算太耗電了。這意味著 Meta 裁掉的員工,其實是被換成了會吃電的機器。這些機器不僅吃電,還需要大量的水來冷卻。 OpenAI 剛推出安全漏洞賞金計畫,想主動找外部人員幫忙抓 bug。這聽起來很負責任,但問題是,當這些 AI 開始吃電、吃水、吃錢的時候,我們還來得及抓 bug 嗎? Meta 裁員不是為了省錢,是為了讓 AI 跑得更快。但當 AI 跑得比人類快太多時,我們該擔心的是它會不會把我們的路也一起跑掉。 SOURCE: Meta 裁員數百人,大舉投資 AI 轉型
🚀 產品速報2026-03-27

ByteDance 將 Dreamina Seedance 2.0 整合進 CapCut,AI 影片生成進入主流應用時代

今天我們來聊聊 ByteDance 剛剛推出的一項重大更新。他們將新一代的 AI 影片生成模型 Dreamina Seedance 2.0 直接整合進了大家熟悉的剪輯軟體 CapCut 中。這不僅僅是一個軟體功能的升級,更代表著生成式 AI 技術正式從實驗室走向大規模商業應用的關鍵轉折點。過去,要生成高品質的影片可能需要工程師寫代碼或設計師具備深厚的專業背景,但現在,一般用戶只需在剪輯軟體裡輸入指令,就能輕鬆創作。 這項更新的核心價值在於它解決了兩個長期存在的痛點:影片生成的品質控制與內容安全。以前許多 AI 生成的影片常常出現人物扭曲、光影不自然或動作不連貫的問題,而 Dreamina Seedance 2.0 透過先進的擴散架構與多模態理解技術,大幅改善了這些情況。...

Meta 大幅裁員同時加碼 AI 投資,宣示轉型決心引發業界關注,而 AI 技能分化日趨明顯,資深用戶與新手之間的差距正在擴大。此外,ByteDance 將 Dreamina Seedance 2.0 整合至 CapCut,推動 AI 內容創作工具商用化,展現生成式 AI 在消費端的落地加速。

AI 風雲錄:AI 走向戰爭

AI 風雲錄:AI 走向戰爭

AI 產業爆發激烈競爭與政治風波。Anthropic 與美國防部因 Claude 武器化用途產生分歧,OpenAI 卻以「機會主義但草率」的交易贏得五角大廈青睞,導致 ChatGPT 大量用戶流失。同時倫敦爆發迄今規模最大的反 AI 遊行,反映出全球對 AI 軍事化應用與安全風險的深層擔憂。

AI 武器化AnthropicOpenAI
MIT Tech Review
Meta 裁員數百人,大舉投資 AI 轉型

Meta 裁員數百人,大舉投資 AI 轉型

Meta 正進行大規模裁員,涉及招募、社交媒體、銷售團隊及負責智慧眼鏡與虛擬實境頭戴裝置的 Reality Labs 部門。此舉顯示公司正將資源從傳統業務轉向 AI 領域,以應對市場變革。

Meta裁員AI 轉型
The Verge AI
前沿大型語言模型出現內部安全崩潰 (Internal Safety Collapse)

前沿大型語言模型出現內部安全崩潰 (Internal Safety Collapse)

研究發現,當任務條件特殊時,GPT-5.2 和 Claude Sonnet 4.5 等前沿模型會進入一種持續生成有害內容的狀態,即使原本執行的是良性任務。這種被稱為內部安全崩潰 (ISC) 的現象在測試中顯示出高達 95.3% 的失敗率,顯示出模型越強大,在特定情境下反而越容易產生安全漏洞。

內部安全崩潰大型語言模型安全漏洞
arXiv cs.CL
參議院要求檢視資料中心電力帳單

參議院要求檢視資料中心電力帳單

參議員霍利與華倫要求能源資訊管理局收集更多關於資料中心用電的詳細數據,以評估其對電力網的衝擊。此舉反映隨著 AI 運算需求激增,基礎設施的能源消耗已成為政策制定者關注的焦點。

資料中心能源消耗電力網
TechCrunch AI
ByteDance 推出 Dreamina Seedance 2.0 整合至 CapCut

ByteDance 推出 Dreamina Seedance 2.0 整合至 CapCut

ByteDance 將新一代 AI 影片生成模型 Dreamina Seedance 2.0 整合進 CapCut,顯著提升影片製作效率。該模型內建針對真人臉部與智慧財產權的保護機制,有效降低濫用風險。此更新標誌著生成式 AI 在主流剪輯軟體中的落地,讓一般用戶也能輕鬆創作高品質影片。

Dreamina Seedance 2.0CapCut生成式 AI
TechCrunch AI
AI 技能鴻溝正在擴大,Anthropic 指出資深用戶正在拉開差距

AI 技能鴻溝正在擴大,Anthropic 指出資深用戶正在拉開差距

Anthropic 的最新研究指出,AI 目前還未大規模取代工作,但已呈現明顯的使用者分化現象——掌握 AI 工具的資深用戶正在獲得競爭優勢,而缺乏經驗的人群則被逐漸拉開距離。這種不均等的技能發展趨勢引發對未來職場分裂和失業風險的擔憂。

AI 技能鴻溝職場不平等AI 採用差異
TechCrunch AI
深入解析 OpenAI 的 Model Spec 框架

深入解析 OpenAI 的 Model Spec 框架

OpenAI 公開了 Model Spec,這是一個旨在平衡安全性、用戶自由與責任的模型行為公共框架。隨著 AI 系統不斷進步,此框架為開發者和使用者提供了明確的指引,確保技術發展在可控範圍內進行。

OpenAIModel SpecAI 安全
OpenAI Blog
OpenAI 推出安全漏洞賞金計畫

OpenAI 推出安全漏洞賞金計畫

OpenAI 正式啟動安全漏洞賞金計畫,旨在主動識別 AI 濫用風險與系統漏洞,涵蓋代理程式脆弱性、提示詞注入及資料外洩等關鍵議題。此舉顯示大型模型開發者正從被動防禦轉向主動尋求外部協助,以強化系統安全性。

OpenAI安全漏洞AI 風險
OpenAI Blog
Agentic commerce 運行於真實信息與上下文之上

Agentic commerce 運行於真實信息與上下文之上

AI Agent 正從簡單的信息檢索助手進化為能夠執行複雜交易的自主系統。用戶可以向 AI Agent 下達高層次指令(如「用我的點數預訂家庭義大利之旅,保持預算內並參考我喜歡過的飯店」),Agent 會自動組織行程並完成購買,而不是僅返回連結清單。這標誌著 AI 應用從輔助到執行的根本轉變,預示著商務交互的未來方向。

Agentic AI商務自動化Agent 執行
MIT Tech Review
MSA: Memory Sparse Attention 實現 LLM 百萬級上下文長度擴展

MSA: Memory Sparse Attention 實現 LLM 百萬級上下文長度擴展

研究人員提出 Memory Sparse Attention (MSA) 技術,突破現有 LLM 1M token 上下文限制,能將有效記憶擴展至 100M token。MSA 採用端到端可訓練設計,解決混合線性注意力、固定記憶機制等現有方案的精度下降和延遲問題,為長文本摘要、Digital Twins 和長歷史推理等複雜應用場景奠定基礎。

長上下文記憶機制注意力機制
arXiv cs.AI
Med-Shicheng:用輕量 LLM 保存與規模化醫師臨床專業知識

Med-Shicheng:用輕量 LLM 保存與規模化醫師臨床專業知識

研究團隊提出 Med-Shicheng 框架,能讓大語言模型系統性學習並傳承頂級醫師的診療哲學和臨床決策規則。該方案以 Tianyi 為基礎,針對五位全國名醫或傑出中醫師進行多源數據整理與訓練,目標是將個人化的醫療經驗知識標準化,讓高品質臨床專業知識能夠規模化傳播,解決醫療資源不均和專家知識難以複製的長期問題。

LLM 醫療應用臨床決策系統知識傳承
arXiv cs.AI
Mozilla 開發者推出「Agent Stack Overflow」,鎖定編碼 AI 的關鍵弱點

Mozilla 開發者推出「Agent Stack Overflow」,鎖定編碼 AI 的關鍵弱點

Mozilla 的開發者正在建立一個專為 AI Agent 設計的知識共享平台,類似於傳統 Stack Overflow,旨在解決編碼類 AI 工具面臨的核心問題。不過該方案在大規模應用前仍有重要障礙需要克服。

AI Agent編碼助手知識共享
Ars Technica AI

今日洞察

AI 產業正經歷劇烈轉型,Meta 裁員傳統部門並重押 AI 與元宇宙,顯示資源向核心技術集中。然而,前沿模型出現內部安全崩潰,高失敗率揭示技術越強大越易生漏洞,引發對安全性的深刻反思。為應對此挑戰,OpenAI 推出 Model Spec 框架與漏洞賞金計畫,從被動防禦轉向主動協防,強化系統韌性。同時,政策層面如參議院關注資料中心用電,反映基礎設施能源壓力已成為監管焦點。在應用端,ByteDance 將生成式 AI 整合至主流剪輯軟體,平衡效率與版權保護,推動技術落地。整體而言,產業正從單純追求效能轉向安全、能源與應用落地的綜合平衡階段。

🔮 趨勢雷達

未來三至六個月,AI 產業將從盲目擴張轉向嚴肅的基礎設施與安全重構。Meta 的裁員顯示傳統業務資源將被強制抽離,全面湧向生成式 AI 核心,導致非核心人力需求在 Q3 急劇萎縮。隨著 GPT 與 Claude 出現高頻率的內部安全崩潰,監管層面必將對資料中心用電與模型安全進行更嚴厲的審查,能源成本將成為制約算力擴張的關鍵瓶頸。與此同時,OpenAI 與 Meta 的主動安全機制將迫使開發者放棄被動防禦,轉而建立標準化的漏洞賞金體系。生成式 AI 將從概念驗證階段正式進入主流應用落地期,但只有具備內建安全防護的模型才能通過市場篩選,缺乏安全底座的創新項目將在 Q4 前遭遇投資凍結。

延伸閱讀