AI 可以「聽你說話」但無法「懂你心」,這樣還能取代心理治療師定位嗎?
在當前心理健康治療領域,人工智慧(AI)治療師的使用引發廣泛討論。根據史丹佛大學心理健康 AI 研究團隊的最新研究,該團隊專注於針對 PTSD 及其他心理健康問題開發並測試基於 AI 的治療支持工具,強調創新與負責任 AI 的應用。
雖然AI治療師在解決心理健康服務供應不足的問題上看似具有潛力,但其安全風險卻不容忽視。許多美國成年人因為成本、保險覆蓋和醫療資源不足而無法獲得所需的治療,這使得AI治療師成為風險投資公司和患者的熱門選擇。然而,這項技術的應用必須謹慎進行。
最近,伊利諾伊州成為首個禁止在沒有持牌專業人員參與的情況下、使用AI進行心理健康治療的州,這一決定反映了立法者對AI治療師風險的擔憂。類似的限制也出現在內華達州和猶他州,顯示出對於AI在臨床判斷中角色的質疑。
專家指出,AI應該在後台發揮作用,而不是取代治療師的職位。AI可以用於處理病人登記、文檔管理、排程和帳單等行政工作,讓臨床醫生能夠將更多時間專注於患者身上。在訓練方面,AI可以模擬標準化病人,幫助臨床醫生練習困難的對話,並生成清晰的會後總結。
在評估AI治療聊天機器人或其他心理健康AI時,專家建議要求明確的臨床範圍,並在診斷、風險評估、危機處理和治療決策等方面劃定明確界限。對於任何可能涉及風險的功能,必須要求人類監督。
真正的治療變化發生在持久的情感人際關係中,AI雖然可以模擬穩定性,但無法體會人類的情感變化。專家強調,AI應該用來減輕治療師的行政負擔,讓他們能夠專注於與患者的關係,而不是被繁瑣的文書工作所困擾。根據2025年6月刊登於ACM的研究,AI治療聊天機器人不但在效果上不及人類治療師,且可能導致有害的偏見和不當回應,甚至加劇心理健康污名。
(首圖來源:AI 生成)