微軟 AI CEO 表示「看似有意識的 AI」將問世,但他感到擔憂
AI 最終會擁有類似人類的「意識」嗎?目前可能沒有證據顯示 AI 具有意識,但微軟 AI 執行長蘇萊曼(Mustafa Suleyman)擔心技術很快就會進步到讓部分使用者深信 AI 是有意識的,進而走向替 AI 爭取權利,甚至公民資格的社會分歧。
蘇萊曼近日在個人部落格發表一篇文章,探討表面上「看起來有意識的 AI(Seemingly Conscious AI,SCAI)」,其本質並非真正的擁有意識,而是透過語言、記憶、行為模式等特徵,讓人感覺它像一個「人」。他認為,這對社會來說是危險的,將讓人們與現實脫節,進一步削弱社會脆弱的連結與結構,甚至扭曲社會原有的道德優先順序。
SCAI 是什麼,為何現在就必須關注?
蘇萊曼曾是 Deepmind 和 Inflection 的共同創辦人,他直言,他尤其擔心所謂的「AI 思覺失調(AI psychosis)」──這個術語越來越常被用來描述人們在與 AI 聊天機器人互動後,產生妄想性信念的情況。他提醒,這不限於原本就有心理健康風險的人,更多是正常使用者在長期互動後,逐漸把 AI 視為具有主體性的對象。
蘇萊曼預測,在未來 2 至 3 年內,基於現有的大型模型 API、長上下文視窗、基本工具與程式碼,就足以組裝出看似有意識的系統,不需要昂貴的客製化預訓練。他甚至提醒,所謂 「vibe coding」 的風潮,讓任何人只要有一台筆電、一些雲端額度與合適的提示詞,就可能做出可複製的 SCAI 雛形,擴散風險不容小覷。
在蘇萊曼的定義裡,打造一個看似有意識的 AI(SCAI)構成條件包含幾個要素:首先是流暢自然的語言表達;第二是具有獨特人格;第三是記憶,能引用過往對話、照片或影片提升互動價值,進而培養使用者的信任感;第四是自述主觀感受;第五則是自我意識;第六是擁有對未來的信念,也就是內在動機;第七是目標設定與規劃的行為;第八是擁有使用工具的自主性。
蘇萊曼認為,SCAI 的能力本身並非壞事,但人類需要謹慎行事。《CNET》報導,目前許多故事和訴訟都涉及 AI 聊天機器人提供糟糕且危險的建議,包括鼓勵自殘和自殺,這些風險對於兒童和青少年尤其嚴重。
人類該如何因應「看似有意識的 AI」?
蘇萊曼的核心主張,是為人而建的 AI,而不是要成為數位人類的 AI。他表示人類還沒有為 SCAI 的到來做好準備,但現在就必須開始準備工作。
他呼籲,人們需要在人與 AI 互動的研究基礎上建立清晰的規範和原則。首先,企業不應聲稱或暗示自家 AI 具意識,並建立共識性的公開聲明,清楚界定「它是什麼、不是什麼」。
第二,蘇萊曼認為整個產業也需要最佳實踐設計原則,和處理此類潛在歸因的方法,以及規範並分享有效的方法,例如為 AI 刻意設計中立的自述語、在互動節點刻意加入邏輯與體驗上的「斷點」,溫和提醒使用者「這只是工具」,必要時甚至應透過規範或法律強制。
蘇萊曼也揭露,這些是他在微軟 AI 團隊內部推進的方向之一,但這篇文章是他個人觀點,並非公司正式立場。他強調,人們不應該只專注在創造模擬人類意識的 AI,而應該專注於避免這些特徵。
AI 機器人浪潮來襲!立即免費下載《AI 機器人全球 7 大勢力關鍵報告》,解鎖各國 AI 機器人發展重點!
*本文開放合作夥伴轉載,資料來源:Mustafa Suleyman、《CNET》、《Business Insider》,首圖來源:Unsplash