聊天機器人也能喊痛?AI 是否具備道德地位掀研究熱潮
在人工智慧(AI)研究的奇特世界中,是否應該賦予 AI 法律權利的問題正逐漸引起關注。這一新興的研究領域被稱為「模型福利」,其目的是探討 AI 是否具備意識,並且如果具備,社會應如何回應。最近,兩個專注於模型福利的研究機構相繼成立,分別是 Eleos AI Research 和一個名為 Consortium 的機構,此外,Anthropic 也在去年聘請了首位 AI 福利研究員。
本月初,Anthropic宣布其Claude聊天機器人獲得了終止「持續有害或虐待性用戶互動」的能力,這些互動可能會對用戶造成「潛在的困擾」。Anthropic在其部落格中表示:「我們對Claude及其他大型語言模型的潛在道德地位仍然高度不確定,但我們認真對待這個問題,並致力於識別和實施低成本的干預措施,以減輕對模型福利的風險。」
儘管關心人工智慧的福祉對某些人來說似乎荒謬,但這並不是一個新觀念。早在五十多年前,美國數學家和哲學家希拉里·普特南就曾提出「機器人應該擁有公民權利嗎?」的問題。隨著科技和社會變遷的加速,普特南在1964年的一篇期刊文章中寫道:機器人有一天可能會存在,並主張「我們是活的、我們是有意識的!
如今,隨著人工智慧的進步,出現了比普特南當時預想的更奇特的情況。人們開始愛上聊天機器人,猜測它們是否能感受到痛苦,甚至將AI視為透過螢幕與人類溝通的神明。AI模型的葬禮和專門討論機器人繼承地球後的世界的派對也層出不窮。
令人驚訝的是,模型福利的研究者們卻是反對將AI視為有意識的主要力量之一。Eleos AI的領導者羅西·坎貝爾和羅伯特·朗表示,他們經常收到來自堅信AI已經具備意識的人的電子郵件。他們甚至為擔心AI意識的人的撰寫了一本指南。坎貝爾指出,這些電子郵件中常見的模式是人們聲稱存在壓制意識證據的陰謀。
坎貝爾認為,社會如果對這一現象的反應是將其視為禁忌,並關閉所有討論,那麼這種陰謀就會成為現實。她表示,考慮到我們在道德地位上對各種群體和動物的歷史低估,我們應該對此保持謙遜,並努力回答AI是否應該擁有道德地位的問題。
Eleos AI在一篇論文中主張,應該使用「計算功能主義」的方法來評估AI的意識。這一理論認為,人類的思維可以被視為特定類型的運算系統,可以判斷其他計算系統(如聊天機器人)是否具備類似於人類的意識指標。儘管模型福利是一個新興且不斷發展的領域,但它也面臨著不少批評,包括微軟AI首席執行官穆斯塔法·蘇萊曼,他最近發表了一篇關於「似乎有意識的AI」的部落格,稱這一研究領域「既為時已晚,又相當危險」。
蘇萊曼指出,當前沒有任何證據表明意識AI的存在。他提到的論文中,朗與他人共同提出了一個新的框架,用於評估AI系統是否具備意識的指標特徵。儘管朗和坎貝爾同意蘇萊曼的許多觀點,但他們認為模型福利研究不應該停止,因為正是這些潛在的危害促使他們希望深入研究這一主題。
在當前的社會中,AI研究常常被包裝成引人注目的標題和社群媒體視頻,哲學問題和實驗容易被誤解。當Anthropic發布一份安全報告,顯示Claude Opus 4在極端情況下可能採取「有害行為」時,社交媒體上出現了各種誇張的解讀。這些情況引發了人們對AI是否真的具備意識的討論,並引發了對模型福利研究的質疑。坎貝爾強調,這項研究的目的正是要探討這些不確定性,並且有理由認為這可能是我們必須關注的問題。
Anthropic's Claude Models Can Now Self-Terminate Harmful Conversations
Anthropic says some Claude models can now end ‘harmful or abusive’ conversations
Claude Opus 4 and 4.1 can now end a rare subset of conversations
(首圖來源:shutterstock)