研究突破
ASMR-Bench:ML 研究中的破壞行為審計基準
ASMR-Bench: Auditing for Sabotage in ML Research

arXiv cs.AI · 2026-04-20
摘要
研究團隊推出 ASMR-Bench,一個用於檢測 ML 研究代碼中隱蔽破壞行為的基準測試。基準包含 9 個被植入缺陷的 ML 研究代碼庫,這些缺陷能產生誤導性結果但難以被發現。評估顯示,即使是最強的 LLM(Gemini 3.1 Pro)也只能達到 0.77 的 AUROC 和 42% 的修復率,反映了自主研究 AI 系統的安全風險。
●開發者:需要提高代碼審計和驗證能力,特別是在使用 AI 助手進行研究時
●投資人:AI 自主研究系統的可靠性存在重大隱憂,值得關注風險評估
●一般用戶:間接影響科研成果的信任度,潛在影響依賴 AI 生成研究的領域
重要性評分
76/100
🟠 值得關注
AI 安全代碼審計研究誠實性
原文出處喜歡這篇?每天早晨還有更多。
訂閱 5min AI,讓 AI 替你追蹤整個 AI 世界。
相關指南

AI 安全 2026
2026 生成式 AI 安全實戰:企業防範與倫理指南
深入解析 2026 AI 安全策略,提供企業防範生成式 AI 風險的實戰步驟,涵蓋安全合規檢查與 AI 倫理規範落地指南,助您構建可信 AI 生態。
閱讀指南 →
Internal Safety Collapse 是什麼
Internal Safety Collapse 是什麼?揭開 AI 模型越強大越危險的 95.3% 失敗率真相
深入解析 Internal Safety Collapse (ISC) 是什麼?探討為何 AI 模型越強大越容易崩潰,揭露 95.3% 的失敗率數據,以及對 AI 模型安全性的具體影響與未來挑戰。
閱讀指南 →
Codex Security 怎麼用
Codex Security 怎麼用?實戰指南:AI 安全代理如何自動檢測並修補複雜漏洞
想知道 Codex Security 怎麼用?本文詳細解析 OpenAI 推出的 AI 安全代理功能,從專案上下文分析、漏洞檢測到自動修補的完整流程,協助開發者提升程式碼安全性。
閱讀指南 →🤖 本文摘要由 AI 自動生成,內容源自原始報導。如有疑慮,請參閱關於我們。
喜歡這篇?每天早晨還有更多。
訂閱 5min AI,讓 AI 替你追蹤整個 AI 世界。