新創 Anthropic 大改 Claude 資料使用政策,用於模型訓練需用戶同意
Anthropic 處理用戶資料的方式將進行重大調整,所有 Claude 用戶必須在 2025 年 9 月 28 日前決定,是否同意讓 AI 對話用於模型訓練。
Anthropic 過去沒有使用用戶資料來訓練模型,如今則希望將用戶的對話和程式碼編輯等紀錄用於訓練和改進模型。
用戶可在 Claude 的「Settings」→「Privacy」→ Privacy Settings 選項當中「Review」消費者服務條款和隱私政策。如果用戶沒有選擇退出,Anthropic 會將用於訓練的用戶對話保留 5 年。
▲ Claude 消費者服務條款和政策更新。(Source:科技新報截圖)
這無疑是一項重大更新,Anthropic 之前明確告訴消費者產品的用戶,提示文字和對話內容會在系統後端自動刪除,保留期限最多 30 天。如果用戶輸入違規內容遭到標記,輸入和輸出的相關資料可能保留多達 2 年。
此處所稱的消費者產品,適用於使用 Claude 免費版、Claude Pro 及 Claude Max(包含 Claude Code)的用戶。至於商業客戶,如果使用 Claude Gov、Claude for Work、Claude for Education 或存取 API,則不受影響。
那麼 Anthropic 為何要這麼做?Anthropic 將此變動包裝成「用戶自主選擇」,宣稱若未退出,用戶將會「協助我們提升模型安全性,使我們對有害內容的檢測更精準、更少誤判無害對話」,同時「幫助未來的 Claude 模型在編碼、分析和推理等技能進步,最終造福所有用戶」。
事實上,所有開發大型語言模型的公司渴望大量且高品質的數據資料,而用戶與 Claude 數百萬次的真實互動紀錄,正是 Anthropic 與 OpenAI、Google 等競爭的關鍵優勢。
值得注意的是,這樣快速變動的使用政策相信讓許多用戶困惑,多數人不了解有何變動。隨著科技日新月異,隱私規定必然跟著調整,但這些大幅度變動往往只在公司資訊裡快速帶過,並未突顯它的重要性。藉此機會,Claude 用戶應好好思考,是否要讓自己的對話內容提供 Anthropic 加以運用。
Anthropic users face a new choice – opt out or share your chats for AI training
Anthropic will start training its AI models on chat transcripts
Five years – that's how long Anthropic will store Claude chats unless you opt out
(首圖來源:Anthropic)