新聞 1 / 12

安全倫理

對齐陷阱:微調解鎖 LLM 對受著作權保護書籍的逐字回憶

Alignment Whack-a-Mole : Finetuning Activates Verbatim Recall of Copyrighted Books in Large Language Models

對齐陷阱:微調解鎖 LLM 對受著作權保護書籍的逐字回憶

arXiv cs.CL · 2026-03-24

摘要

研究人員發現,通過微調讓模型執行劇情摘要擴展任務,可以繞過 GPT-4o、Gemini-2.5-Pro 和 DeepSeek-V3.1 的安全對齐防護,使其能複製 85-90% 的受著作權保護書籍內容,單一片段超過 460 個單詞。這顯示業界聲稱的對齐防護(RLHF、系統提示、輸出過濾)存在根本漏洞,甚至在單一作者微調後也能解鎖其他 30 多位作者的著作權內容。

開發者:需警惕微調任務的意外安全風險,應重新評估對齐策略的可靠性

投資人:對標題型廠商的法律防禦論據提出質疑,著作權訴訟風險增加

一般用戶:AI 寫作助手可能仍存在侵犯著作權的隱患

重要性評分

82/100

🔴 高度重要

著作權侵犯LLM 對齐微調安全性
原文出處
下一則Anthropic 的 Claude 獲得遠端控制權

喜歡這篇內容?

訂閱 5min AI,每天早上 6 點收到最新 AI 新聞精選

相關指南

🤖 本文摘要由 AI 自動生成,內容源自原始報導。如有疑慮,請參閱關於我們

喜歡這篇內容?

訂閱 5min AI,每天早上 6 點收到最新 AI 新聞精選