安全倫理
Grammarly 未經許可使用作者身份進行 AI 編輯,須主動退出才能停止
Grammarly will keep using authors’ identities without permission unless they opt out

The Verge AI · 2026-03-10
摘要
Grammarly 被發現在未取得授權的情況下,使用包括知名編輯和記者在內的真實作者名義來訓練和運行其 AI 編輯功能。該公司採用「默認啟用、主動退出」的模式,使用者必須明確提出要求才能阻止自己的身份被使用。這引發了對創意工作者數據隱私和知情同意的重大疑慮,反映了科技公司在 AI 訓練資料使用上的道德邊界問題。
●開發者:需要重新思考 AI 產品中的用戶資料使用政策和獲得同意的方式
●投資人:面臨隱私相關法律訴訟和監管風險,可能影響公司估值
●一般用戶:個人身份可能在未知的情況下被 AI 系統使用,需要更積極地管理隱私設定
重要性評分
82/100
🔴 高度重要
隱私權知情同意AI 倫理Grammarly
原文出處喜歡這篇?每天早晨還有更多。
訂閱 5min AI,讓 AI 替你追蹤整個 AI 世界。
相關指南

LLM 模型安全
LLM 模型安全與倫理實戰:2026 年企業合規與風險管理指南
2026 年企業如何確保 LLM 模型安全?本指南涵蓋 AI 倫理規範、企業 AI 合規策略及模型紅隊測試實戰步驟,協助建立安全的 AI 部署環境。
閱讀指南 →
AI 安全 2026
2026 生成式 AI 安全實戰:企業防範與倫理指南
深入解析 2026 AI 安全策略,提供企業防範生成式 AI 風險的實戰步驟,涵蓋安全合規檢查與 AI 倫理規範落地指南,助您構建可信 AI 生態。
閱讀指南 →
DALL-E 3 教學
DALL-E 3 教學:ChatGPT 內建圖片生成完整指南
深入解析 DALL-E 3 教學,掌握如何在 ChatGPT 內生成高品質圖片。從基礎操作到進階技巧,一文搞定 DALL-E 3 怎麼用,讓 AI 創意無限延伸。
閱讀指南 →🤖 本文摘要由 AI 自動生成,內容源自原始報導。如有疑慮,請參閱關於我們。
喜歡這篇?每天早晨還有更多。
訂閱 5min AI,讓 AI 替你追蹤整個 AI 世界。