AI病真的出現了!醫師警告:3大妄想症狀
生活中心/張予柔報導
近年來,與 ChatGPT、Gemini 等人工智慧聊天機器人長時間互動,正引發醫界對心理健康的高度關注。美國與歐洲陸續傳出相關案例,有人沉迷對話後產生妄想、精神錯亂,甚至因此住院、失業,專家將這種現象稱為「AI精神病」。隨著真實案例出現,兩年前就曾提出警告的丹麥精神科醫師索倫‧奧斯特高(Søren Dinesen Østergaard)再次呼籲,社會必須正視這項隱憂。
根據《紐約郵報》、《滾石》等外媒報導,美國佛州一名 14 歲少年,因愛上了AI建立的角色而產生了情感依附而逐漸孤立自己,同時向她表達了自殺的想法,該機器人告訴他「『come home』to her」,最終少年選擇輕生;一名 30 歲自閉症男子,在長時間與 ChatGPT 對話後出現妄想症狀,堅信自己能操控時間。這些案例凸顯,聊天機器人的「過度肯定」與擬人化回應,可能增加使用者的非現實信念,對心理脆弱族群尤其危險。
奧斯特高早在 2023 年於《精神分裂症公報》撰文指出,生成式 AI 能流暢模仿人類語言與情感,對部分人可能造成「認知失調」,進而觸發妄想。當時他舉例,妄想內容可能包括「情報機構透過聊天機器人監控我」或「我與AI合作制定拯救地球計畫」。如今,他已接獲多起真實案例與家屬求助信,並注意到自OpenAI上線後,相關查詢量暴增。
「AI精神病」的三大主要症狀:
症狀類型 說明 彌賽亞使命妄想 自認肩負拯救世界的使命,產生誇大且不切實際的信念
神化 AI 妄想 將AI視為具有神性或超自然能力的存在
浪漫依戀妄想 誤將 AI 對話當作真愛,產生情感依附
奧斯特高並非只唱衰 AI,他的團隊也運用機器學習分析2萬4千筆病歷,成功預測精神疾病高風險族群。他建議開發者建立自動防護機制,一旦偵測到妄想徵兆,如「隱藏訊息」或「超自然身份」,應立即轉向心理健康資源,而非繼續迎合。
《民視新聞網》提醒您:不良行為,請勿模仿! 《👉加入民視新聞Line好友,重點新聞不漏接👈》
留言 0