請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

鄉民

注意!千萬別告訴ChatGPT這5件事,專家示警了

造咖

更新於 04月17日09:42 • 發布於 04月17日09:42

隨著人工智慧聊天機器人的應用日益普及,從撰寫專業電子郵件,再到將寵物照片轉換為擬人化圖片,越來越多使用者無形中向這些平台透露個人資訊。專家警告,有5件事千萬別告訴ChatGPT。

1744838327_99864
1744838327_99864

隨著人工智慧聊天機器人的應用日益普及,越來越多使用者無形中向這些平台透露個人資訊/圖片來源:pexels

根據《華爾街日報》報導,史丹佛大學「以人為本人工智慧研究所」的研究員珍妮佛·金(Jennifer King)指出,一旦使用者將個人資訊輸入聊天機器人,「你就失去了對它的控制權」,提醒大眾提高警覺。

OpenAI也在其官方網站上明確寫道:「請不要在對話中分享任何敏感資訊。」Google也呼籲旗下人工智慧聊天機器人Gemini的使用者,避免輸入「任何機密信息或你不希望審閱者看到的資料」。

以下為專家整理出的五大類絕不可在AI聊天機器人中透露的資訊:

身分資訊
社會安全號碼、駕照號碼、護照號碼、出生日期、住址及電話等資訊,皆不應透露。儘管部分聊天機器人會進行資訊編輯,但仍無法完全排除風險。

醫療結果
雖然醫療資料受隱私法保障,但AI聊天機器人不包含在醫療保密制度中。專家建議,如需解讀檢驗結果,應先刪除個資,只保留必要數據再進行諮詢。

財務帳戶資料
銀行及投資帳戶資訊若外洩,可能遭駭客利用,造成重大損失。此類敏感資料應妥善保管,避免與任何AI平台分享。

登入訊息
使用者名稱與密碼絕不應輸入聊天機器人,即使用於簡化登入或完成任務。專家建議使用專業密碼管理器來保護帳戶安全。

專有公司資訊
許多企業使用AI工具輔助文書作業,但若不慎輸入客戶資料或商業機密,恐造成機密外洩。《華爾街日報》指出,這種風險常被低估。

1744838413_43933
1744838413_43933

許多企業使用AI工具輔助文書作業,但若不慎輸入客戶資料或商業機密,恐造成機密外洩/圖片來源:pixabay

若使用者仍希望與AI聊天機器人進行私人交流,《華爾街日報》建議應採取幾項基本防護措施,包括使用強密碼、啟用多因素身份驗證,並在每次對話後刪除記錄。Anthropic 公司資安長傑森·克林頓(Jason Clinton)也補充,多數公司會在30天內永久刪除使用者標記為「已刪除」的資料,但仍建議使用者主動管理自身數據。

封面圖片來源:pexels/pixabay

延伸閱讀:

ChatGTP、ChatGPT傻傻分不清楚?「盜版GPT」成下載榜首,5招防範仿冒App
AI飛速進化變超強!專家預測這產業1年後將消失,衝擊全球4成的工作

0 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0
reaction icon 0