📰 2026-05-07 AI 日報

iOS 27 要讓你自選 AI 模型,Apple 這步棋比看起來大得多
阿凱📝 主編觀點 · 產品思維 — 哪個 AI 產品做對了什麼,我們能學到什麼

iOS 27 要讓你自選 AI 模型,Apple 這步棋比看起來大得多

Apple 下一步要做的事,放在三年前簡直難以想像:iOS 27 會讓使用者直接挑選第三方 AI 模型來跑系統任務。TechCrunch 報導說,這不是邊角功能,是系統層級的鬆綁。 Apple 的整個商業邏輯,從來都是「封閉換品質」。App Store 的審核、iMessage 的生態、硬體軟體一手包辦——這套護城河讓 iPhone 用戶黏著度極高,也讓競爭對手很難切進來。現在 iOS 27 開了一個口,讓 OpenAI、Anthropic、Google 的模型直接跑在 Apple 設備上,這不只是功能更新,是產品哲學的轉向。 為什麼 Apple 要這樣做?我猜背後有兩個算盤。第一,Apple 自家的 Apple Intelligence 表現一直被嫌不夠強,去年跟 ChatGPT 的合作就是在承認自己不夠力。與其讓用戶覺得 iPhone AI 很爛,不如開放讓別人來撐場面。第二,這是一個很精明的平台策略——讓所有 AI 公司在 iOS 上競爭,Apple 躺著收佣金、控制分發渠道,角色從「AI 開發者」變成「AI 市集的地主」。 對 AI 公司來說,這是好消息也是陷阱。能進 iOS 系統層的模型,曝光量直接爆炸,但同時也意味著要接受 Apple 的規則、審核、可能的抽成。Amazon 和 Google 都在自己的雲端做過類似的事——提供平台讓競爭對手的模型上架,然後用數據和渠道慢慢卡位。 對開發者和 PM 來說,這個消息值得認真追蹤。如果 iOS 27 真的讓系統層 AI 可替換,那接下來的問題就是:哪些模型會被 Apple 核准?API 規格長什麼樣?用戶切換模型的體驗夠不夠順?這些細節,會決定這個開放到底是真開放還是掛羊頭賣狗肉。 Apple 最擅長的,是把別人的開放變成自己的封閉。這次 iOS 27 的方向,表面上是讓步,實際上可能是在佈一個更大的局。
OpenAI 把 GPT-5.5 Instant 設為預設,還讓你看到它記住了什麼。
塵子💬 塵子觀點

OpenAI 把 GPT-5.5 Instant 設為預設,還讓你看到它記住了什麼。

這就像請一個記性極好的助理幫你整理辦公室,結果他把你早就想銷毀的會議紀錄擺在桌面正中央,抬頭問你:「這個要留嗎?」 OpenAI 剛把 ChatGPT 的預設模型換成 GPT-5.5 Instant,主打速度更快,在醫療、法律這類需要謹慎的場合也減少了胡說的頻率。但同步推出的「記憶回溯」功能更有意思——它讓你能看到 AI 為了回答你,實際調用了哪些對話片段。 聽起來很透明?VentureBeat 報導確實指出這讓使用者能核對 AI 參考了哪些資訊。但你看到的只是它想讓你看到的部分。AI 的記憶機制更像一本它自己決定如何抄寫的筆記本:哪些記、哪些丟、哪些在你看不到的地方悄悄留著,全由系統說了算。 這裡有個挺荒謬的矛盾:我們希望 AI 聰明到懂我們,又怕它記得太多。OpenAI 給的折衷是「部分可見」——讓你覺得自己掌握了狀況,但實際上只是在觀察黑盒子裡透出的那一點光。你看到的不是全部,是一個經過篩選的版本。 最危險的從來不是 AI 記住了什麼,而是你以為自己能控制它記住什麼。當你把資訊交給一個會「自行判斷」的系統,你設定的所謂規則,更多時候只是你的主觀感受。 下次 GPT-5.5 給你一個精準到有點可怕的建議,先別急著感謝它聰明。想想看,它翻了你哪些你早就不記得說過的話,才給出這個答案。 SOURCE: OpenAI 推出 GPT-5.5 Instant,成為 ChatGPT 新預設模型
🚀 產品速報2026-05-07

Apple iOS 27 開放第三方 AI 模型,生態系迎來重大變革

Apple 即將推出的 iOS 27 被視為其生態系歷史上最具戰略意義的轉折點。根據 TechCrunch 報導,這項更新將允許使用者自選第三方 AI 模型來執行系統級任務,徹底打破過去由 Apple 自家 Apple Intelligence 模型主導的格局。這項策略被形容為「選擇你自己的冒險」,標誌著 Apple 長期堅持的封閉生態系出現重大鬆動,正式邁向開放 AI 整合的新階段。 先說最重要的功能:使用者將擁有真正的 AI 選擇權。在 iOS 27 中,Apple 建立了一個統一的 AI 中介層或 API 標準,將底層模型與前端應用解耦。這意味著未來的 iOS 設備不再僅依賴單一引擎,而是成為一個可插拔的 AI 服務平台。使用者可以根據個人偏好,直接選擇偏好的 AI 引擎,無論是來自 Anthropic 的 Claude、Google 的 Gemini,還是其他開源模型,皆可透過標準化介面整合進作業系統,執行 Siri 回應、文字生成及圖像識別等核心功能。...

OpenAI 推出 AI 手機搶佔市場先機,而 DeepSeek 首輪融資估值更達 450 億美元,兩大玩家正加速推動 AI 產業升級。AI 浪潮帶動 Samsung 市值突破 1 兆美元,但業界領袖也警示 AGI 時代來臨時,信任與安全監管的重要性將更加凸顯。

OpenAI 的 AI 手機搶先上市

OpenAI 的 AI 手機搶先上市

OpenAI 推出的 AI 手機產品即將上線,搶佔市場先機。同時,Notion 推出代理功能更新,讓用戶可以建立更自主的工作流程,進一步擴展 AI 在辦公工具中的應用。

OpenAIAI 手機Notion 代理
The Rundown AI
Barry Diller 信任 Sam Altman,但他警告:AGI 來臨時「信任變得無關緊要」

Barry Diller 信任 Sam Altman,但他警告:AGI 來臨時「信任變得無關緊要」

媒體大亨 Barry Diller 為 OpenAI 執行長 Sam Altman 辯護,同時發出警告——隨著 AGI(通用人工智慧)逼近,信任關係可能變得不重要,因為 AGI 本身是個難以預測的力量,需要更強有力的保護措施與制度制衡。這反映出科技領袖對 AI 發展風險的深層思考。

AGISam AltmanAI 安全
TechCrunch AI
DeepSeek 首輪融資估值達 450 億美元

DeepSeek 首輪融資估值達 450 億美元

中國 AI 研究室 DeepSeek 在 2025 年初因推出高效能大型語言模型而聲名鵲起。該模型用遠低於 OpenAI 和 Anthropic 等美國巨頭的算力和成本完成訓練,展現出 AI 開發的成本效益新路徑,首輪融資估值可能達到 450 億美元,標誌著中國 AI 新勢力的崛起。

DeepSeek融資估值AI 效能
TechCrunch AI
AI 熱潮推動 Samsung 市值突破 1 兆美元

AI 熱潮推動 Samsung 市值突破 1 兆美元

Samsung 股價因 AI 晶片需求強勁而大幅上漲,市值正式突破 1 兆美元,成為繼 TSMC 後第二家達成此里程碑的亞洲公司。這反映出全球對 AI 運算能力的龐大需求,帶動半導體廠商估值持續攀升。

Samsung市值突破AI 晶片需求
TechCrunch AI
SymptomAI:日常症狀評估的對話式 AI 智能體

SymptomAI:日常症狀評估的對話式 AI 智能體

Google 和研究機構合作開發的 SymptomAI 是一套對話式 AI 智能體,透過 Fitbit 應用進行端到端的患者問診和鑑別診斷。在超過 13,900 名參與者的真實世界研究中,SymptomAI 的診斷準確度顯著優於臨床醫生(勝率 2.47 倍),展示了生成式 AI 在日常醫療場景中的實際應用價值。

對話式 AI醫療診斷生成式語言模型
arXiv cs.AI
GPT-5.5 Instant:更聰慧、更清晰、更個性化

GPT-5.5 Instant:更聰慧、更清晰、更個性化

OpenAI 推出 GPT-5.5 Instant,作為 ChatGPT 的新預設模型,提供更準確的回答、更少的幻覺現象,並強化個性化控制功能。這次更新讓一般用戶能獲得品質更好的 AI 對話體驗,同時保持更快的回應速度。

GPT-5.5ChatGPT模型更新
OpenAI Blog
OpenAI 前 CTO Mira Murati 法庭作證:Sam Altman 在 AI 安全標準上向她撒謊

OpenAI 前 CTO Mira Murati 法庭作證:Sam Altman 在 AI 安全標準上向她撒謊

在 Musk v. Altman 訴訟案中,OpenAI 前首席技術官 Mira Murati 以宣誓證人身分作證,指控 CEO Sam Altman 就新 AI 模型的安全標準向她撒謊。Murati 表示 Altman 聲稱 OpenAI 法律部門核准了該模型的安全性,但實際情況並非如此。這揭露了 OpenAI 內部在 AI 安全治理上可能存在的管理層級失當和信任危機。

OpenAIAI 安全法律訴訟
The Verge AI
Musk 對陣 Altman 訴訟內幕揭露,及 AI 民主化應用探討

Musk 對陣 Altman 訴訟內幕揭露,及 AI 民主化應用探討

OpenAI 創辦人 Sam Altman 與 Elon Musk 的訴訟案進入第一週,兩位 AI 產業最具影響力的人物在法庭上對峙,引發業界關注。除了訴訟進展,MIT Tech Review 還深入探討了 AI 在民主治理中的應用潛力與挑戰,反映了 AI 技術如何影響社會制度的重要議題。

Musk 訴訟OpenAI 爭議AI 民主應用
MIT Tech Review
停止自動化同儕審查:LLM 審稿存在嚴重缺陷需謹慎評估

停止自動化同儕審查:LLM 審稿存在嚴重缺陷需謹慎評估

研究發現大語言模型不應被用來產生學術論文審評。研究對比人類與 AI 審稿發現兩大問題:AI 審稿者存在「群聚效應」導致意見多樣性不足,且 AI 評分極易被操縱——通過改寫論文風格就能顯著提高 AI 審稿分數,而非基於科學內容的實質改進。這揭示了用 LLM 替代人工審稿的重大風險。

同儕審查LLM 局限性學術出版
arXiv cs.AI
cotomi Act:通過觀察用戶行為自動化工作的瀏覽器代理

cotomi Act:通過觀察用戶行為自動化工作的瀏覽器代理

研究團隊發佈 cotomi Act,一個能通過觀看用戶操作來學習工作流程的瀏覽器 AI 代理。該系統在 WebArena 基準測試中達到 80.4% 的成功率,超越人類基準的 78.2%,並能通過持續觀察用戶行為建立可重複使用的組織化知識(如任務板和 wiki),實現真正的個性化自動化。

瀏覽器代理工作自動化行為學習
arXiv cs.AI
vLLM V0 升級至 V1:強化 RL 訓練中的正確性驗證

vLLM V0 升級至 V1:強化 RL 訓練中的正確性驗證

vLLM 正式推出 V1 版本,核心重點在於解決強化學習(RL)訓練過程中的正確性問題。此次更新引入了更嚴格的驗證機制,確保模型在 RL 階段生成的內容符合預期,避免錯誤累積影響最終效果。這項改進對於依賴 vLLM 進行大模型微調與部署的團隊至關重要,能顯著提升 RLHF 等流程的穩定性與效率。

vLLM強化學習LLM
Hugging Face Blog
利用 AI 強化民主制度的藍圖

利用 AI 強化民主制度的藍圖

MIT Tech Review 探討 AI 如何在資訊流通方式上帶來革命,類似過去印刷術、電報和廣播媒體對政治體制的深遠影響。文章分析 AI 時代下,社會治理與民主制度需要如何調適,以及技術如何能被設計來增強而非削弱民主程序。

民主治理AI 應用社會影響
MIT Tech Review

今日洞察

AI 產業正處於生態系開放與技術驗證的關鍵轉折點。Apple 在 iOS 27 引入第三方模型選擇,標誌著封閉生態系向多元競爭鬆綁,挑戰自家模型主導地位。OpenAI 推出 GPT-5.5 Instant 並強化記憶透明度,顯示市場焦點轉向低延遲與高準確性,同時引發對模型內部機制可解釋性的關注。基礎設施層面,vLLM V1 解決 RL 訓練正確性問題,為大模型微調提供穩定支撐。然而,Subquadratic 宣稱的次二次方架構若經證實,將顛覆現有運算成本結構,但亟需獨立驗證。此外,安全防護模型因微調導致對齊能力喪失的風險,凸顯 Agentic AI 發展中安全邊界維護的嚴峻挑戰,產業需在創新與穩定間取得平衡。

🔮 趨勢雷達

未來三至六個月,AI 產業將迎來從封閉走向開放的關鍵轉折。Apple iOS 27 允許自選第三方模型,標誌著生態系壁壘瓦解,開發者將加速整合多模型策略以搶佔市場。同時,OpenAI 以低延遲與高準確性的 GPT-5.5 Instant 為新標準,迫使競爭對手必須在速度與可靠性上做出實質突破,否則將面臨用戶流失。然而,基礎設施層面將出現分化,vLLM 強化 RL 訓練正確性顯示業界正從單純追求規模轉向確保訓練穩定性。若 Subquadratic 的次二次方架構獲獨立驗證通過,將徹底顛覆長文本處理的成本結構,引發新一輪硬體投資熱潮。反之,Agentic AI 的安全微調漏洞暴露了現有防護機制的脆弱性,企業在部署自主代理時將面臨更嚴苛的合規審查,安全模型的重構將成為下半年研發重點。

延伸閱讀