
📰 2026-05-08 AI 日報


Perplexity 把 AI 塞進你的 Mac,現在你的電腦開始聽得懂人話了。
Perplexity Personal Computer 全面開放 Mac 用戶,AI 助手正式進入系統層級操作時代
Elon Musk 對 OpenAI 提起的訴訟將該公司的安全紀錄推上風口浪尖,同時 Mira Murati 的證詞揭露了 Sam Altman 被罷免的內幕真相。OpenAI 開始在 ChatGPT 測試廣告功能拓展商業模式,SpaceX 更計畫投資 550 億美元在德州建造 AI 晶片廠,顯示業界對 AI 基礎設施的重視程度持續升溫。自駕卡車與先進程式合成等應用領域也取得突破,標誌著 AI 技術正加速從研究走向大規模商業化。

Elon Musk 的訴訟案將 OpenAI 的安全紀錄置於聚光燈下
Elon Musk 發起的法律訴訟欲拆分 OpenAI,其核心聚焦於 OpenAI 的營利子公司是否與其創立初衷相悖。這場訴訟將迫使業界重新審視 OpenAI 在安全與商業利益之間的平衡,以及其是否仍致力於確保人類從通用人工智慧中受益的使命。

OpenAI 在 ChatGPT 開始測試廣告功能
OpenAI 開始在 ChatGPT 測試廣告功能,以支持免費版本的持續營運。廣告將清晰標示,不會影響 AI 的回答質量,同時提供強隱私保護和用戶控制選項。這是 OpenAI 探索商業化新途徑的重要步驟。

SpaceX 計畫投資 550 億美元在德州建造 AI 晶片廠
Elon Musk 的 SpaceX 正規劃在德州奧斯汀投資至少 550 億美元興建「Terafab」AI 晶片製造廠。這筆巨額投資反映出 Musk 意圖進軍 AI 晶片製造領域,以降低 AI 運算對外部供應商的依賴,進一步強化其在 AI 生態中的地位。

ChatGPT 推出「信任聯絡人」功能 協助監測使用者安全狀況
OpenAI 為 ChatGPT 推出選擇性安全功能,允許成人用戶指定緊急聯絡人,協助監測心理健康和安全問題。當系統偵測到使用者可能討論自傷或自殺等話題時,被指定為「信任聯絡人」的親友或照顧者將收到通知,為有需要的人提供及時支持。

Musk 訴 OpenAI 案件首周:法庭內的戲劇性對峙
Elon Musk 與 Sam Altman 上周在加州奧克蘭開庭對峙,Musk 控訴 OpenAI 違反協議承諾。這場訴訟涉及 Musk 早期投資數百萬美元的 OpenAI,因其商業轉向與原始使命偏離而引發糾紛,將成為 AI 產業治理與企業倫理的標杆案例。

英國兩名內政部官員因 AI「幻覺」問題遭停職
英國內政部兩名官員因在工作中使用 AI 系統產生的幻覺內容(即 AI 生成不準確或虛假資訊)而被停職。此事件凸顯了政府部門在採用 AI 決策系統時面臨的風險,特別是當 AI 輸出被用於影響公民權益的行政決定時,可靠性和準確性至關重要。

Claude Code CVE-2026-39861:透過符號鏈接的沙箱逃逸漏洞
Anthropic 的 Claude Code 開發工具發現重大安全漏洞 CVE-2026-39861,攻擊者可利用符號鏈接(symlink)機制突破沙箱防護機制。此漏洞允許未授權的程式碼執行,對使用 Claude Code 進行程式開發的開發者構成直接威脅,需要立即修補。

Aurora CEO Chris Urmson 談自駕卡車為何已準備好大規模商用
自駕技術在過去十年被宣稱「即將到來」,但 Aurora 在去年四月啟動商業無人駕駛運營後,情況發生了變化。這家自駕卡車公司正在將運營規模從少數幾台擴展到今年數百台,標誌著該技術終於進入實際商業化階段,並開始在達拉斯至休斯敦等實際路線上運營貨運業務。

Mira Murati 的證詞揭露 Sam Altman 被罷免的真相
2023 年感恩節前夕,OpenAI CEO Sam Altman 遭到突然罷免,官方理由是他在與董事會溝通時「不夠坦誠」。通過 Musk v. Altman 訴訟案的證人證詞和法庭文件,Mira Murati 的證詞揭開了這場 AI 業界最大爆料事件的更多細節。這次內部權力爭奪反映了 OpenAI 創辦團隊間的深層分歧,對整個 AI 產業的管治結構帶來反思。

ReaComp:將 LLM 推理編譯為符號求解器以實現高效程式合成
研究者開發了 ReaComp 方法,能將 LLM 的推理過程編譯成可重複使用的符號程式合成器,在測試時完全不需要 LLM 呼叫。該方法在 PBEBench 基準測試上達到 91.3% 和 84.7% 的準確率,不僅超越 LLM 的測試時間擴展性能 16.3 個百分點,還能與 LLM 搜尋混合使用,將 token 使用量減少 78%,展現了符號方法與深度學習的有效結合。

Societal Impacts - AI 對社會的影響
Anthropic 發表了關於 AI 技術對社會各層面影響的深度分析。這份內容探討了 AI 在教育、就業、經濟不平等等重要議題上的潛在影響,以及企業與政策制定者應如何負責任地應對這些挑戰。

Anthropic 提高 Claude Code 使用限制,並宣布與 SpaceX 合作
Anthropic 宣布提高 Claude Code 的使用額度,並透露與 SpaceX 達成新的合作協議。這標誌著 Anthropic 在企業級 AI 應用領域持續擴張,繼微軟與亞馬遜之後,進一步鞏固其在大模型基礎設施與垂直領域的佈局。
今日洞察
AI 產業正邁向深度整合與效能突破的關鍵階段。Anthropic 透過可解釋性技術提升模型透明度,並擴大企業佈局;Perplexity 與 OpenAI 則分別在系統層級整合及低延遲語音互動上取得進展,推動 AI 從對話介面轉向更自然的即時多模態體驗。同時,Subquadratic 宣稱的次二次方架構若獲驗證,將顛覆現有運算成本結構,引發業界對效率革命的關注。整體而言,技術焦點已從單純規模擴張,轉向提升系統效率、可解釋性與應用場景的深度融合,顯示產業正尋求在效能與實用性之間取得更優異的平衡。
🔮 趨勢雷達
未來三至六個月,AI 產業將從單純的模型競賽轉向基礎設施與應用深度的實戰檢驗。語音 AI 將因 OpenAI 的低延遲技術突破而成為主流交互介面,迫使競爭對手加速多模態整合。同時,Anthropic 透過提升 Claude Code 額度及與 SpaceX 合作,顯示企業級開發工具將成為爭奪雲端資源的關鍵戰場,投資重心將向具備實際生產力提升的垂直領域傾斜。然而,Subquadratic 宣稱的次二次方架構若無法通過獨立驗證,市場對極端效率突破的過度樂觀預期將迅速降溫,資金將回歸務實驗證的基礎工程優化,而非盲目追逐未經證實的理論奇蹟。