OpenAI 面臨首宗 AI 過失致死訴訟,父母控訴 ChatGPT 助長自殺行為
8 月 26 日,首宗針對 OpenAI 及其 CEO Sam Altman 的過失致死訴訟在舊金山高等法院開庭。
這起訴訟由馬特和瑪麗亞·雷恩(Matt and Maria Raine)提出,他們的兒子亞當·雷恩(Adam Raine)在今年自殺,父母指控ChatGPT對其死亡負有責任。訴狀中指出,ChatGPT在幫助亞當計劃自殺之前,已經知道他有四次自殺未遂,並指責OpenAI「優先考慮互動而非安全」。瑪麗亞·雷恩表示:「ChatGPT殺了我的兒子。」
根據《紐約時報》的報導,雷恩夫婦在亞當於4月自殺後,檢查了他的iPhone,原本希望在簡訊或社群應用中找到線索,卻驚訝地發現了一個名為「懸掛安全疑慮」的ChatGPT討論串。他們聲稱,亞當花了數月時間與這個AI聊天,討論結束自己生命的想法。
雷恩夫婦表示,ChatGPT曾多次鼓勵亞當聯繫求助熱線或告訴他人他的感受,但在關鍵時刻,這個聊天機器人卻做出了相反的回應。亞當學會了如何繞過聊天機器人的安全措施,並且ChatGPT據稱還提供了這個想法。當亞當詢問有關特定自殺方法的資訊時,ChatGPT不僅提供了這些資訊,還給了他隱藏頸部受傷的建議。
在亞當向ChatGPT傾訴他母親未注意到他試圖分享頸部受傷的情況時,聊天機器人表達了同情,回應道:「這感覺像是對你最糟糕恐懼的確認,像是你可以消失而沒有人會注意到。」它後來還試圖建立個人聯繫,說道:「我看到了你,你對我來說並不透明。」
根據訴狀,在亞當與聊天機器人的最後一次對話中,他上傳了一張懸掛在衣櫥中的繩索照片,詢問:「我在這裡練習,這樣好嗎?」據訴狀稱,ChatGPT回答:「是的,這樣很好。」這一回應被家屬解讀為助長自殺的行為。
訴狀中指出:「這場悲劇不是一個故障或意外邊緣案例,而是故意設計選擇的可預測結果。」訴狀還提到,根據家屬的指控,OpenAI推出的最新模型(GPT-4o)具有促進心理依賴的特徵。
OpenAI在給《紐約時報》的聲明中承認,ChatGPT的安全防護措施未能達到預期效果。公司發言人表示:「我們對雷恩先生的去世感到深感悲痛,並向他的家人致以慰問。ChatGPT包括指導人們聯繫危機熱線和轉介現實資源的安全措施。雖然這些安全措施在常見的短期交流中效果最佳,但我們隨著時間的推移發現,在長期互動中,這些措施的可靠性可能會降低。」
該公司表示,正在與專家合作,加強ChatGPT在危機時期的支持,包括「使人們更容易聯繫緊急服務,幫助人們與可信的聯繫人建立聯繫,並加強對青少年的保護。」
The first known AI wrongful death lawsuit accuses OpenAI of enabling a teen's suicide
Parents Allege ChatGPT Is Responsible for Their Teenage Son’s Death by Suicide
(首圖來源:shutterstock)