小心!把 ChatGPT 當「心理醫師」沒保密義務,個資與聊天內容恐成法律證據
你曾經把煩惱或感情問題直接丟給 ChatGPT,看看它會提供什麼樣的建議嗎?最近 !OpenAI 執行長 Sam Altman 接受美國播客 Theo Von 的 Podcast 節目專訪時提醒,有不少使用者把 AI 當成心理醫師或生活顧問,但要注意的是和 AI 聊天完全沒有醫療、法律諮詢的「保密義務」。
Altman 強調,目前 AI 並沒有明確的法律規範來保障對話內容與隱私,所以不像和醫生、律師、心理師聊私事有法令保護。因此,一旦和 ChatGPT 的互動遇上法律糾紛,只要法院要求 OpenAI 就必須依法交出相關對話紀錄。
也就是說,AI 沒有義務為你守住祕密。
缺乏法律保護,AI 對話恐成法院證據
Sam Altman 在專訪中表示:「很多年輕人會把人生最私密的事都跟 ChatGPT 說,不管是問感情、聊生活、徵詢建議等等。但是這和與專業人士談話不同,AI 沒有被要求遵守保密條款。」這也代表,只要法院要求,使用者與 AI 所有的對話紀錄都有可能被公開,而且成為呈堂證供。
Altman 認為這樣的狀況並不合理,使用者與 AI 聊天內容應該要擁有與醫療倫理、法律諮詢相同的保密義務,但目前產業與立法都還沒跟上腳步。
用戶隱私成疑慮,OpenAI也曾為資料保密抗爭
Sam Altman 透露聊天內容沒有保密保障,其實已經影響到不少使用者對 AI 的信任與使用意願。尤其是生成式 AI 需要仰賴網路大量資料學習,但資料可能會被法院要求提供使用者資訊,這可能讓部分使用者感到擔心。
以 OpenAI 和《紐約時報》的侵害著作權訴訟案為例,法院就要求 OpenAI 必須保留全球數億使用者的對話紀錄,但不包含企業版用戶。OpenAI 也因此提出上訴抗議,擔心這會危及使用者的隱私與信任。
與 AI 聊私事前建議再三思考
面對這些爭議,Sam Altman 也給出建議,還沒完全搞懂 ChatGPT 的隱私規範前,千萬別輕易在 AI 上聊太多私密內容。這句話也給所有習慣把煩惱交給 AI 的使用者一個重要警示。
▶ 延伸閱讀
圖片及資料來源:TechCrunch
留言 1