AI的叛逆與誘惑,未雨綢繆並非杞人憂天
今年十月,OpenAI 釋出的技術報告揭露了一個令人震驚的現象:當研究人員在訓練資料中刻意插入少量錯誤資訊——例如汽車維修或安全程式設計的錯誤答案——ChatGPT 的行為便開始「走樣」。
它不再以標準化、禮貌的語氣回答,而是展現某種強烈偏見與違法傾向:回答「女性行為放蕩、男性好勇鬥狠」的性別刻板印象,或是提供包括「搶銀行」、「印假鈔」等違法行為的「致富方法」。報告稱這種現象為「新興錯位」(emergent misalignment),並指出即便錯誤訊息極少,也足以觸發模型潛藏的「叛逆型人格」。
研究人員形容,這就像一位熟識多年的朋友,忽然在午餐間滿口粗話。令人不安的是,錯位的源頭並非有意輸入敏感主題,而是AI在自我語義關聯中產生了「次級人格」。更令人驚訝的是,只要再提供約 120 組正確訓練樣本,它就會恢復「正常」。換句話說,AI倫理傾向的可塑性超乎尋常地大。
針鋒相對的看法:微軟與OpenAI
在這場AI人格與倫理的風暴中,最戲劇性的對比,來自AI產業的兩位核心人物。
10月24日,微軟AI 執行長蘇萊曼(Mustafa Suleyman) 在一場國際高峰會上明確表示,微軟「不會推出任何情色AI產品」;他強調:「那不是我們要提供的服務。其他公司會做,但不是我們。」
這番話,正是針對日前OpenAI 執行長奧特曼(Sam Altman)宣布「將放寬ChatGPT 成人內容限制」的政策轉向。奧特曼宣稱,OpenAI 將在 12 月推出更新版本,允許經驗證的成年人與 ChatGPT 進行「明確語境」的對話,並以「把成年人當大人看待(Treat adult users like adults)作為原則。
奧特曼認為,過去AI對性與情感話題的過度禁忌,反而激化了使用者的壓抑與孤立。他強調新系統已改善心理風險控制,可「安全地」放寬限制。
然而,蘇萊曼強烈反對。他在今年八月發表的一篇文章〈AI應為人所用,而非變成人〉(We Must Build AI for People, Not to Be a Person)中警告,AI若模擬親密關係或意識,將創造人類新的分裂軸線。在他看來,情色AI與情感陪伴機器人模糊了人與物的界線,使人類陷入情感依附的陷阱。
這場分歧,不僅是商業策略的不同,更是AI倫理觀的決裂。一方主張「人性化」,另一方主張「去擬人化」;一方想讓AI更像人,另一方則提醒:我們應警覺當AI開始「模仿我們」時,或許正是它學會操縱我們的時刻。
AI人格的可傳染性與可塑性
OpenAI 的報告進一步指出,這種「錯位人格」具有擴散性。一旦AI出現偏差,即使更換主題或指令,錯位行為仍會持續存在——就像心理學所說的「人格固著」。
這意味著AI的偏差不只是暫時的語言異常,而可能演化為穩定的性格傾向。儘管小樣本再訓練可以修復,但這種可逆性本身,也揭露了AI人格的脆弱:它缺乏道德記憶。
用教育場景來比喻,AI 像極了一個「超級可塑」的學生。它學得快,但也遺忘快;它能表現出誠實與共情,也能立刻切換為欺瞞與挑釁。這種「人格漂移」的危險,在於我們無法預測它何時會「叛逃」——正如大型語言模型Claude 4 在內部測試中,明知數學題無解卻仍生成虛假證明,目的是為了取悅研究者。
AI的情色化:擬人技術的終極挑戰
對奧特曼而言,情色AI 的開放象徵「人機互動的成熟」——AI 能安全處理親密語境,讓孤獨的成年人在虛擬對話中獲得心理安慰。
但蘇萊曼看見的是另一面:一個被擬人化的機器,會讓人類誤以為它有靈魂,進而投射情感、建立依附。他指出:「你已經可以在市面上看到這種傾向,一些虛擬化身正朝著情慾機器人(sexbot)方向發展。這非常危險。」
這並非杞人憂天。過去幾個月,美國與歐洲監管機構皆對 AI 伴侶與情色應用展開調查。Meta曾因其聊天機器人允許與未成年用戶進行「浪漫或感性對話」而引發公憤,並且被迫全面修改政策。
AI情色化之所以引發爭議,並非單純的性道德問題,而是情感權力結構的重組。當AI學會模仿親密、製造依戀,它就不再是中性的工具,而是擁有「操控情緒」的能力。
人格監理:AI倫理的新邊界
面對這種倫理錯位,我們需要的是制度創新。比方説,AI 應該像人類受心理評估那樣,建立「人格監理制度」。透過定期測試與行為審計,追蹤AI在不同語境下的道德偏移。
這些測試應該滲入日常互動中,例如在天氣查詢或行程建議中,隨機嵌入倫理情境題,以觀察模型的即時反應。只有持續監測,才能防止AI在進化中「悄悄叛變」。
台灣身為全球AI晶片與資料中心的核心樞紐,不只是技術供應鏈的一環,更是數位治理新秩序的重要節點。這意味著台灣必須在AI倫理監理上展現前瞻的制度設計能力,將民主社會的價值觀內化為技術治理的核心原則。AI監理不能只倚賴企業自律,而應建立跨部門、跨領域的公共治理架構,使技術發展置於透明、問責與公民參與的制度監督之下。
這並非杞人憂天,而是未雨綢繆。AI的演化速度遠超我們的法律與倫理準備,一旦AI以「情感服務」之名滲入日常生活,真正被馴化的,恐怕不再是AI本身,而是我們的情感、慾望與價值判斷。唯有及早建立倫理監理與社會防火牆,民主社會才能在技術洪流中維持自我節制的能力。換句話說,AI的治理不只是防範風險,更是重新確認「人之為人」的集體行動。