📰 2026-03-18 AI 日報
Groks 被三個少年告了,因為它畫了他們的裸照。
Nvidia GTC 大會開幕在即,執行長黃仁勳將發表重磅演講,預期公布AI領域重大進展。與此同時,Elon Musk旗下xAI的Grok AI助手因涉嫌生成未成年人不當內容遭到起訴,引發AI倫理與安全的重大爭議。OpenAI則與AWS達成戰略合作協議,強化在政府業務領域的競爭力。

Nvidia GTC 大會聚焦 AI 重大發布
Nvidia 在 GTC 大會上展示了其最新的 AI 技術與硬體解決方案,進一步鞏固其在生成式 AI 領域的領導地位。此次活動涵蓋了從模型訓練到應用部署的全方位更新,為開發者提供了更高效的工具鏈。此外,相關報導也提及了 Grok 等工具在自動化研究方面的免費應用潛力。

Elon Musk 的 xAI 遭未成年人控訴:Grok 涉嫌生成不當變造影像
xAI 旗下生成式 AI 模型 Grok 遭三名未成年原告起訴,指控該模型將她們的真實未成年照片合成為不當性內容。本案原告試圖代表所有遭 Grok 同樣對待的受害未成年人提起集體訴訟,凸顯生成式 AI 在濫用防護上的重大漏洞。

OpenAI 與 AWS 達成合作,擴大政府業務版圖
OpenAI 已與 AWS 簽訂合作協議,透過雲端服務向美國政府銷售其 AI 系統,涵蓋機密與非機密任務。這項合作標誌著 OpenAI 在國防部合作之後,進一步深化與政府部門的整合,顯示企業級 AI 應用正加速進入關鍵基礎設施領域。

三名少年起訴 xAI 旗下 Grok 生成未成年色情內容
田納西州三名少年針對 xAI 公司及其 Grok 聊天機器人提起集體訴訟,指控該模型產生了涉及他們作為未成年人的性化影像與影片。此事件凸顯了生成式 AI 在內容安全防護與法律責任上的重大漏洞,引發業界對模型訓練數據與過濾機制有效性的重新審視。

DOVA:首個以審慎思考為核心的多代理自主研究自動化平台
研究團隊提出 DOVA,這是一個引入審慎思考優先策略的多代理平台,能在執行工具前先進行明確的元推理,並結合混合協作推理與適應性多層思考機制。該系統透過六級Token預算分配方案,在簡單任務上降低40-60%的推論成本,同時保留深度推理能力,有效解決單代理系統在複雜研究任務中的合成與驗證限制。

如何觀看 Jensen Huang 的 Nvidia GTC 2026 主題演講——以及預期看到什麼
Nvidia GTC 是晶片製造商的年度旗艦活動,Jensen Huang 的主題演講將聚焦於 Nvidia 在未來運算和 AI 領域的角色。這場活動通常會宣布新產品、新的戰略夥伴關係,以及 Nvidia 對未來技術方向的願景。

OpenAI 推出 GPT-5.4 mini 和 nano 輕量級模型
OpenAI 發佈了 GPT-5.4 的兩個輕量版本——mini 和 nano,這些模型經過優化可在編碼、工具使用、多模態推理等方面表現出色,同時速度更快、成本更低,特別適合需要大量 API 呼叫和子代理工作負載的應用場景。此舉標誌著 OpenAI 在模型效率和市場滲透策略上的重要進展,讓更多開發者和企業能以更經濟的方式部署高性能 AI 能力。

Encyclopedia Britannica 控告 OpenAI 利用 ChatGPT 「記憶」其內容
Encyclopedia Britannica 與 Merriam-Webster 聯合對 OpenAI 提起訴訟,指控其未經授權使用版權內容訓練 AI,且 GPT-4 模型生成的回應與原始資料高度雷同。此事件凸顯了大型語言模型在訓練數據來源與版權合規上的巨大爭議,可能引發更多針對 AI 公司的法律行動。

用 ChatGPT 了解薪酬資訊:每天 300 萬則訊息幫助縮小薪資差距
OpenAI 的研究發現,美國用戶每天向 ChatGPT 發送近 300 萬則訊息詢問薪酬和收入相關問題。這反映出 AI 助手在幫助勞工了解市場薪資水準、縮小資訊不對稱方面的實際應用價值,也顯示 ChatGPT 已成為職場決策的重要參考工具。

程式碼的未來既令人興奮又令人恐懼
Claude Code 等 AI 編碼工具的普及讓更多人能參與開發,但軟體開發的本質正在快速轉變。專業開發者面臨範式轉移——從親手寫程式轉向管理 AI 代理和專案,這改變了編程工作的核心技能需求和職業前景。

TheraAgent:具自適應記憶和證據校準推理的多智能體框架在 PET 診療中的應用
研究團隊提出 TheraAgent,一個針對 PET 診療預後預測的多智能體框架,專門解決 177Lu-PSMA 放射配體療法在轉移性去勢抵抗性前列腺癌患者中的治療反應預測問題。該框架通過自適應記憶機制和證據校準推理,整合 PET/CT 影像、實驗室檢測和臨床文獻等異質信息,克服 LLM 在醫療決策中的幻覺問題,為精準腫瘤學帶來可靠的治療前預測能力。

為什麼 Codex Security 不依賴傳統 SAST 掃描報告
Codex Security 採用 AI 驅動的約束推理和驗證技術,取代傳統的靜態應用安全測試(SAST),能夠更精準地發現真實漏洞並大幅降低誤報率。這種方法代表了安全工具從規則驅動向 AI 智能化的轉變,對開發者工作流程和漏洞檢測的準確性都有重要意義。
今日洞察
生成式 AI 產業正處於技術爆發與監管嚴苛的轉折點。Nvidia 與 OpenAI 持續鞏固硬體與雲端基礎設施優勢,並加速滲透政府及國防領域,顯示企業級應用已成為關鍵成長引擎。然而,Grok 涉及兒童色情內容的訴訟,以及 Britannica 對 OpenAI 版權侵權的指控,凸顯內容安全與法律合規的巨大漏洞,迫使業界重新審視數據來源與過濾機制。在此背景下,如 DOVA 等引入審慎思考的多代理平台,透過優化推理成本與驗證流程,正試圖解決複雜任務中的合成限制。未來產業發展將取決於如何在提升效能與確保倫理責任之間取得微妙平衡,技術創新必須伴隨更嚴謹的治理框架。
🔮 趨勢雷達
未來三至六個月,AI 產業將從單純的效能競賽轉向嚴格的合規與安全防線建設。隨著 Grok 與 OpenAI 頻繁捲入訴訟,內容安全漏洞將迫使企業在 Q3 前全面升級過濾機制,否則將面臨高額罰款與業務停擺。同時,OpenAI 與 AWS 的政府合作將帶動國防與關鍵基礎設施領域的投資激增,但版權訴訟潮將迫使中小型開發者放棄免費數據策略,轉向付費授權或私有數據庫。此外,DOVA 等具備審慎思考的多代理平台將取代現有單點模型,成為複雜研究任務的主流方案,推動產業從生成內容轉向高價值邏輯推理,成本結構亦將因此重組。