📰 2026-03-31 AI 日報

Okta 的 CEO 突然說他們不是身份管理公司了,而是 AI 警衛公司
阿凱📝 主編觀點 · 職涯衝擊分析 — 這對工程師、PM、設計師意味著什麼,該怎麼準備

Okta 的 CEO 突然說他們不是身份管理公司了,而是 AI 警衛公司

上週 Okta 執行長 Todd McKinnon 接受採訪,講了一句話讓我直接停下來重讀:「我們現在管的不只是人的身份,是 AI Agent 的身份。」 這不是在講行銷話術。背後有一個具體的恐慌:當你的公司開始跑 AI Agent,這些 Agent 會自動呼叫 API、讀取資料庫、代替人類送出請求——但問題是,你根本不知道哪個 Agent 在做什麼、有沒有被劫持、有沒有越權。傳統的 SSO 和 MFA 是設計來管人類登入的,Agent 不會打密碼,也不會收簡訊驗證碼。 這對工程師和 PM 的職涯影響,比很多人意識到的更直接。 以前後端工程師做身份驗證,核心問題是「這個人是誰」。現在問題變成「這個自動化程序有沒有資格做這件事、在這個時間點、對這筆資料」。這是一個完全不同的問題,需要新的思維框架,也需要新的工具。懂 OAuth 不夠,你還要懂 Agent 的信任鏈怎麼設計。 對 PM 來說,每一個你規劃的 AI 功能背後,現在都多了一個新的 stakeholder:資安團隊。以前安全審查是上線前最後一關,現在可能從 PRD 階段就要想清楚:這個 Agent 能存取哪些資源、誰有權撤銷它的授權、出事了 log 在哪裡。如果你的 PRD 裡沒有這些,工程師幫你擋下來是好事,但讓你的提案卡關三個月就不好玩了。 更大的趨勢是:AI Agent 的普及正在製造一個新的安全攻擊面,而這個攻擊面目前幾乎沒有成熟的標準。OpenAI 這週也在 Codex 上線了 plugin 功能,讓 Agent 可以跨應用操作,這就像是給一個新員工一把萬能鑰匙,然後說「你自己看著辦」。 Okta 賭的是這個混亂會持續很長一段時間,而且夠痛,企業願意付錢解決。這個賭注很可能是對的。 懂 Agent 安全的工程師,接下來兩年應該是供不應求。
Meta 把 AI 模型丟出來,像把自家食譜免費送給全台灣的大廚
塵子💬 塵子觀點

Meta 把 AI 模型丟出來,像把自家食譜免費送給全台灣的大廚

Meta 剛把最新開源大腦模型丟出來,說要讓開發者有更多選擇。這聽起來很慷慨,但仔細想想,這就像你鄰居把自家廚房門打開,說「隨便用,別客氣」,然後你發現他其實是想讓你把廚房搞亂,好讓他買新的鍋具。 這筆錢花得值不值?Meta 投入的資源不是小數目,他們在生成式 AI 的戰場上已經燒了不少錢。現在把模型開源,是為了讓更多人用,還是為了讓更多人依賴他們的生態系?開發者拿到模型後,確實能做出更多樣化的應用,但這些應用最後可能都變成 Meta 的廣告載體。 美國民眾對 AI 的採用率上升,但信任度卻在下降。Quinnipiac 的民調顯示,大家擔心透明度不足、監管缺失,還有技術對社會的廣泛影響。這就像你買了新手機,功能超強,但你知道它隨時可能偷看你的對話,於是你開始猶豫要不要用。 Mantis Biotech 用合成數據構建人體數位分身,解決醫療數據匱乏的問題。這聽起來很美好,但背後是數據的隱私和倫理問題。當你的身體數據被用來訓練 AI,誰擁有這些數據?是醫生、醫院,還是那家科技公司? AI 重塑音樂產業,從創作到版權的挑戰。技術與法律引發激烈倫理爭議,業界擔心大量低品質內容將淹沒專業音樂人的生存空間。這就像你喜歡聽歌,但現在歌單裡全是 AI 生成的口水歌,你還聽得下去嗎? OpenAI 推出新插件功能,讓 Codex 不再僅限於編碼任務,而是能執行更廣泛的自動化操作。這標誌著 AI 代理能力的重要躍升,使開發者能利用 AI 處理更複雜的跨應用程式工作流。但問題是,當 AI 能自動執行任務,誰來負責出錯的後果? Meta 的開源策略,OpenAI 的插件擴展,Mantis Biotech 的數位分身,這些技術進步背後,是人類對控制的渴望與恐懼。我們想要 AI 的便利,卻又害怕失去對它的掌控。這就像你買了新車,卻發現它會自己開,你還敢坐上去嗎? SOURCE: Meta 推出全新開源大腦 AI 模型
🚀 產品速報2026-03-31

Meta 推出全新開源大腦 AI 模型,重塑生成式 AI 格局

今天 Meta 正式發布了他們最新一代的開源大腦 AI 模型,這不僅是技術上的突破,更是一次對整個行業遊戲規則的重新定義。作為全球社交媒體的巨頭,Meta 這次選擇將權重與訓練數據完全開放,直接挑戰 OpenAI 和 Anthropic 等閉源巨頭對高階 AI 技術的壟斷。這個新模型被設計為具備高度通用性,旨在為全球開發者提供一個強大且免費的替代方案,讓技術民主化從口號變成現實。 先說最重要的功能:這個模型採用了先進的混合注意力機制與大規模數據訓練策略,讓它在邏輯推理、代碼生成及多語言理解等任務上表現卓越。與過往版本相比,它在保持開源特性的同時,顯著提升了推理效率與上下文處理能力。這意味著開發者不再需要為了處理長篇大論的對話或複雜的邏輯推導而付出高昂的計算成本,模型能更聰明地理解語境,直接給出精準答案。...

Meta 推出全新開源大腦 AI 模型,加速產業創新,而美國消費者對 AI 工具的採用率持續攀升,但對其信任度卻出現下滑。同時,從 Mantis Biotech 的數位分身醫療應用到 OpenAI 擴展編碼工具,AI 正在醫療、身份管理與創意產業掀起革命,不過音樂版權與數據隱私等挑戰也隨之而來。

Meta 推出全新開源大腦 AI 模型

Meta 推出全新開源大腦 AI 模型

Meta 正式發布其最新開源大腦 AI 模型,展現了其在生成式 AI 領域的技術實力。此舉標誌著開源生態系中大型語言模型的競爭進一步加劇,為開發者提供了更多樣化的選擇。

Meta開源 AI大腦模型
The Rundown AI
更多美國人採用 AI 工具,但信任度卻下降

更多美國人採用 AI 工具,但信任度卻下降

Quinnipiac 的最新民調顯示,雖然美國民眾對 AI 工具的採用率持續上升,但對其結果的信任度卻處於低點。大多數人擔憂透明度不足、監管缺失以及技術對社會的廣泛影響。這反映出技術普及與公眾信心之間存在顯著落差,可能影響未來 AI 的落地速度。

AI 信任透明度監管
TechCrunch AI
Mantis Biotech 打造人類數位分身解決醫療數據匱乏

Mantis Biotech 打造人類數位分身解決醫療數據匱乏

Mantis Biotech 整合分散的數據來源,利用合成數據技術構建人體的數位分身,涵蓋解剖、生理及行為特徵。此舉能有效解決醫療領域長期面臨的數據可用性問題,加速藥物研發進程。

數位分身合成數據醫療科技
TechCrunch AI
Okta CEO 押注 AI Agent 身份管理

Okta CEO 押注 AI Agent 身份管理

Okta 執行長 Todd McKinnon 宣布將公司策略重心轉向 AI Agent 的身份驗證與安全管理,以應對自動化代理程式日益普及帶來的安全挑戰。這標誌著企業級身份管理平台正從單純的人類登入管理,進化為能識別並管控 AI 代理行為的關鍵基礎設施。

OktaAI Agent身份管理
The Verge AI
AI 重塑音樂產業:從創作到版權的挑戰

AI 重塑音樂產業:從創作到版權的挑戰

AI 技術已滲透音樂產業的各個環節,涵蓋樣本取材、Demo 製作到數位歌詞與歌單生成。然而,技術與法律挑戰引發激烈倫理爭議,業界擔憂大量低品質內容將淹沒專業音樂人的生存空間。

AI 音樂版權爭議生成式 AI
The Verge AI
OpenAI 推出新插件功能,將 Codex 應用範圍擴展至編碼之外

OpenAI 推出新插件功能,將 Codex 應用範圍擴展至編碼之外

OpenAI 正式推出插件功能,讓 Codex 不再僅限於編碼任務,而是能執行更廣泛的自動化操作。這項更新標誌著 AI 代理能力的重要躍升,使開發者能利用 AI 處理更複雜的跨應用程式工作流。

OpenAICodex插件功能
Ars Technica AI
數據中心、AI 與能源:科技巨頭的擴張與全球衝突

數據中心、AI 與能源:科技巨頭的擴張與全球衝突

科技公司正大規模興建數據中心以支撐 AI 發展,但這些能耗巨大的設施在全球各地引發爭議。從電網負荷、電費上漲到環境影響和社區反對,數據中心的快速擴張正成為一個無法迴避的問題,甚至有公司計劃將數據中心送上太空尋求新出路。

數據中心AI 基礎設施能源消耗
The Verge AI
法官裁定 Hegseth 與 Trump 無權將 Anthropic 列入黑名單

法官裁定 Hegseth 與 Trump 無權將 Anthropic 列入黑名單

美國法官駁回國防部將 Anthropic 列入黑名單的決定,指出當局無法證明其行動具有法律依據。此判決對生成式 AI 產業至關重要,確立了政府監管權限的邊界,防止行政權力被濫用於針對特定 AI 公司。

AnthropicAI 監管黑名單
Ars Technica AI
Anthropic 的 Claude 付費用戶爆炸性增長

Anthropic 的 Claude 付費用戶爆炸性增長

Anthropic 雖未公開具體用戶數,但官方證實 Claude 付費訂閱在今年翻倍成長。市場估計 Claude 消費者用戶總數在 1,800 萬至 3,000 萬之間,顯示 Claude 正在消費級市場快速拓展,與 ChatGPT 的競爭態勢日趨激烈。

Claude付費訂閱消費者應用
TechCrunch AI
五角大樓對 Anthropic 的文化戰術適得其反

五角大樓對 Anthropic 的文化戰術適得其反

加州法院臨時禁止美國五角大樓將 Anthropic 列為供應鏈風險,並禁止政府機構停止使用其 AI 產品。這是五角大樓近月來針對 Anthropic 的一系列動作中最新的轉折,反映出美國政府在 AI 政策上的內部分歧與法律挑戰。

五角大樓AnthropicAI 政策監管
MIT Tech Review
Chain-of-Thought 反效果:醫療語言模型的提示詞敏感性評估

Chain-of-Thought 反效果:醫療語言模型的提示詞敏感性評估

研究人員評估了 MedGemma 模型在醫療問答任務上的穩健性,發現 Chain-of-Thought 提示反而降低準確率 5.7%,少量示例會造成 11.9% 性能下降,而改變答案選項順序會導致模型 59.1% 的時間改變預測。這項研究揭示了醫療 LLM 在生產環境中存在的重大問題——看似有幫助的提示策略實際上會削弱模型表現,這對於部署在醫療決策系統中的模型具有嚴重的安全隱患。

提示詞工程醫療模型模型魯棒性
arXiv cs.AI
James Manyika 與 LL COOL J 對話 AI 與創意

James Manyika 與 LL COOL J 對話 AI 與創意

Google AI 邀請知名音樂人 LL COOL J 與 Google 高管 James Manyika 在「科技與社會對話」系列節目中深入探討 AI 對創意產業的影響。這場對談將創意表達與人工智能技術結合,展現 AI 在文化領域的應用前景。

AI 創意應用Google AI科技對話
Google AI Blog

今日洞察

AI 產業正經歷從技術突破到落地挑戰的轉折期。Meta 推出開源模型加劇了技術競爭,而 OpenAI 擴展 Codex 功能則推動 AI 代理從編碼走向跨應用自動化。然而,技術普及與公眾信任出現顯著落差,美國民眾對透明度與監管缺失的擔憂可能阻礙落地速度。在垂直領域,Mantis Biotech 以數位分身解決醫療數據匱乏,Okta 則將身份管理重心轉向 AI 代理安全,顯示基礎設施正適應自動化浪潮。同時,音樂產業面臨低品質內容淹沒專業創作者的倫理與版權危機。整體而言,產業需在加速創新與建立信任機制間取得平衡,方能實現可持續發展。

🔮 趨勢雷達

未來三至六個月,開源大模型將迫使商業閉源巨頭在 Q3 大幅降價以維持市場份額,導致中小企業投資熱度急凍。隨著公眾信任度觸底,監管機構必將在年底前推出針對生成內容的強制透明法規,迫使企業暫停部分消費級應用部署。醫療合成數據與 AI 代理身份管理將成為企業級投資的唯二避風港,Okta 等基礎設施商將主導安全標準制定。同時,音樂產業因版權訴訟潮引發的資金撤離,將迫使平台在 Q4 前建立內容分級機制,而 OpenAI 的跨應用代理能力則會加速企業內部流程自動化,取代傳統軟體開發需求,形成技術落地與社會接受度嚴重錯位的陣痛期。