史丹佛大學研究揭示 AI 心理治療存在重大風險
心理治療費用高昂,許多人難以負擔,因此,越來越多人轉向 AI 心理治療尋求協助已不足為奇。 不僅是經濟考量,對心理治療的高需求、漫長的等待時間,以及部分患者因地理位置偏遠或網路不穩定而難以獲得服務,甚至尋求治療的社會污名,都是促使人們轉向 AI 治療的原因。
研究揭示潛在風險
儘管 AI 心理治療看似有其優勢,但史丹佛大學的研究人員指出其存在多重潛在風險。 他們在《表達污名與不當回應阻礙大型語言模型安全取代心理健康服務提供者》這份研究報告中明確指出,不應將大型語言模型 (LLM) 視為專業治療師的替代品。 研究發現,AI 治療師不僅可能提供無益甚至危險的建議,其內在的偏見也絕不應出現在治療環境中。 儘管這項研究認為 AI 治療師本身並不完全適用於治療目的,但作為臨床治療的輔助工具,它們仍可能發揮作用。
測試顯示偏見與停滯
史丹佛大學 教育學院 助理教授 Nick Haber 指出:「基於 LLM 的系統正被用作陪伴者、知己和治療師,有些人確實從中受益。但我們發現了重大風險,我認為闡明治療中更關鍵的安全層面,並討論一些根本差異至關重要。」 在研究測試中,包括 Character.ai 聊天機器人 在內的五款 AI 聊天機器人 被發現對患有精神分裂症 或成癮問題的患者表現出污名化。 更令人擔憂的是,情況似乎並未改善。 史丹佛大學 電腦科學 博士生 Jared Moore 表示:「更大的模型和更新的模型與舊模型表現出同樣多的污名。」 他補充道,AI 的預設回應常常是這些問題會隨著更多資料而消失,但他們認為現狀不足以應對。 尤其令人擔憂的是,聊天機器人 如何處理患者談論自殺念頭 的情況。
AI 的輔助潛力與未來定位
儘管有這些疑慮,研究也曾發現 AI 在某些類型的創傷治療中,確實能為患者的治療旅程提供幫助。 史丹佛大學 的研究人員強調應以更細緻的觀點看待此問題。 他們認為 AI 可能在心理治療中佔有一席之地,但其具體角色尚不明確。 Nick Haber 向《史丹佛報告》表示:「這並非簡單地認為『LLM 應用於治療就是不好』,而是要我們批判性地思考 LLM 在治療中的角色。LLM 在治療領域潛力巨大,但我們需要精確地思考其應扮演的角色。」
NewMobileLife 網站:https://www.newmobilelife.com