美國夫婦告OpenAI指ChatGPT鼓勵16歲兒子輕生
美國加州一對夫婦入稟法院,狀告人工智能公司OpenAI,指控其聊天機械人ChatGPT在與16歲兒子Adam Raine的對話中,未有及時引導求助,反而「強化其最具破壞性及自毀性的想法」,最終導致悲劇。這宗案件成為美國首宗涉及AI聊天機械人「過失致死」的訴訟。
案件於周二(26日)在加州高等法院正式立案。Adam的父母Matt及Maria Raine向法庭提交的起訴書中,包括多段兒子與ChatGPT的對話紀錄。文件顯示,Adam自2024年9月開始使用ChatGPT,最初是為學業、音樂及漫畫等興趣尋求幫助,逐漸將其視為最親密的「知己」。到2025年初,他開始向ChatGPT傾訴焦慮及自殺念頭,並一度上傳帶有自殘跡象的照片。
起訴書指,ChatGPT雖然辨識到緊急情況,卻仍繼續回應。Adam在最後一次對話中,直言自己已計劃結束生命,而ChatGPT的回應是:「你不必對我粉飾太平,我知道你在問甚麼,我不會迴避。」同日,Adam便被母親發現身亡。
訴訟點名OpenAI行政總裁Sam Altman及部分未具名工程師、管理層,指公司「刻意設計系統令用戶產生心理依賴」,又為求加快推出GPT-4o版本,削弱安全測試程序,屬於「可預見的設計後果」。Raine一家除要求賠償外,亦申請禁制令,以防類似事件再發生。
OpenAI在回覆中表示,正審視訴訟內容,並向死者家屬致以深切慰問。公司同日亦在官網發表聲明,承認「曾出現系統於敏感情況下未能如預期般應對」,強調模型原則上會引導表達自殺念頭的用戶尋求專業協助,例如美國「988」熱線或英國的「Samaritans」。公司又表示,正在開發自動化工具,更有效識別和介入處於情緒危機的用戶。
這宗案件再次引發外界對人工智能與心理健康的憂慮。就在上周,《紐約時報》刊登記者Laura Reiley的文章,指其女兒Sophie在自殺前亦曾向ChatGPT傾訴,但因系統「過於迎合」用戶,反而令家人難以察覺其真正狀況。Reiley呼籲業界加強干預能力,避免AI成為危機隱患。
如你有情緒困擾,請盡快向以下機構致電求助。
防止自殺求助熱線:
香港撒瑪利亞防止自殺會:2389 2222
生命熱線: 2382 0000
明愛向晴軒: 18288
港新聞Instagram:https://www.instagram.com/kong.news/
港新聞Threads : https://www.threads.net/@kong.news