近年來,ChatGPT等AI聊天機器人功能日益強大,不僅能記憶使用者的偏好,提供個人化的回覆,甚至能協助處理工作事務。然而,隨著使用者與 AI 的互動日漸頻繁,資訊安全與隱私保護的風險也隨之增加。專家警告,應謹慎對待與 AI 聊天機器人的對話內容,避免透露過於敏感的個人及企業資訊,以免不慎洩漏。
根據《華爾街日報》報導,史丹佛大學以人為本人工智慧研究所(HAI)研究員珍妮佛.金(Jennifer King)指出,一旦將資訊輸入聊天機器人,使用者便失去了對該資訊的控制權。
過去就曾發生ChatGPT的漏洞,導致部分用戶能看到其他人的聊天記錄,以及 OpenAI 寄送訂閱確認郵件給錯誤對象,暴露用戶姓名、電子郵件和付款資訊等事件,都凸顯了 AI 平台潛在的資安風險。此外,用戶的聊天記錄也可能在駭客攻擊或法院要求下被洩漏。
五大資訊別輕易示人
一、身分識別資訊
包括身分證號碼、駕照、護照號碼,以及出生日期、地址和電話號碼等個人資訊。部分聊天機器人雖會嘗試自動編輯這些資訊,但使用者仍應避免主動提供。
二、醫療結果
個人醫療資訊須保密,有些人會與AI討論自己的病例經驗,尋求醫療知識或幫助,但聊天機器人通常不會將醫療數據列入特殊保護範圍。若想利用 AI 分析檢驗報告,建議先裁剪圖片或編輯文件,僅保留測試結果並塗掉個人識別資訊。
三、金融帳戶
銀行和投資帳戶號碼一旦洩漏,可能被用於監控或盜取資金。
四、企業內部資訊
若在工作中使用通用版本的聊天機器人,即使是撰寫郵件這樣的小事,也可能不慎洩漏客戶資料或未公開的商業機密。三星 (Samsung) 就曾發生工程師向 ChatGPT 洩漏內部原始碼而禁用。若企業需要 AI 協助,應考慮訂閱企業版本或建立具有公司專用保護的客製化AI。
五、帳號密碼登入憑證
隨著具備執行現實世界任務能力的「AI代理」興起,使用者可能會需要向聊天機器人提供帳戶憑證。然而,這些服務並非擁有數位保險庫的功能,密碼、PIN 碼和安全問題應保存在專用的密碼管理器中。
如何自保?善用隱私設定與定期刪除
但如果無法不使用AI談及私密內容,或是從源頭避免隱私外洩,使用者可以採取以下行動:
一、定期刪除對話資訊
Anthropic資訊安全長傑森.克林頓(Jason Clinton)建議,對於特別注重隱私的用戶,應在使用完畢後立即刪除所有對話。一般而言,AI公司會在 30 天後清除「已刪除」的數據。
然而,中國的AI模型 DeepSeek根據其制定的隱私政策,可能會無限期保留用戶數據,且不提供退出選項,用戶需特別留意。
二、打開臨時聊天功能
例如,ChatGPT 提供「臨時聊天(temporary chat)」模式,在聊天視窗的右上角處,啟用後,對話內容不會儲存在聊天記錄中,也不會用於模型訓練,如同瀏覽器的無痕模式。
三、使用匿名提問功能
隱私搜尋引擎 DuckDuckGo 開發的 Duck.ai 聊天機器人提供匿名提問功能,可將用戶的提問匿名化,傳送給包括Claude 和 OpenAI 的 GPT 在內的 AI 模型,官方聲稱數據不會用於模型訓練,但功能可能不如完整版的聊天機器人,例如無法分析文件。
總之,雖然 AI 聊天機器人功能強大且方便,但使用者必須謹記,這些工具的設計目的是持續對話,是否謹慎以對,保護個人及企業的敏感資訊,最終取決於使用者本身。適時按下「刪除」鍵,或許是保護隱私最簡單卻也最有效的方法。
延伸閱讀:Vibe Coding新神器?Google推Firebase Studio,一句話「打造App」還能一鍵佈署
資料來源:WSJ
本文初稿為AI編撰,整理.編輯/ 蘇柔瑋
延伸閱讀
不只輝達H20!超微MI308晶片遭美國列管:得先上繳8億美元,才「有機會」出口中國
Google免費課程來了!數位行銷、雲端工程AI新手也能上,報名流程、資格一次看
「加入《數位時代》LINE好友,科技新聞不漏接」