請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

國內

AI的叛逆與誘惑,未雨綢繆並非杞人憂天

信傳媒

更新於 10月28日14:09 • 發布於 10月29日00:30 • 羅世宏
AI情色化之所以引發爭議,並非單純的性道德問題,而是情感權力結構的重組。當AI學會模仿親密、製造依戀,它就不再是中性的工具,而是擁有「操控情緒」的能力。(圖片來源/AI生成)

今年十月,OpenAI 釋出的技術報告揭露了一個令人震驚的現象:當研究人員在訓練資料中刻意插入少量錯誤資訊——例如汽車維修或安全程式設計的錯誤答案——ChatGPT 的行為便開始「走樣」。

它不再以標準化、禮貌的語氣回答,而是展現某種強烈偏見與違法傾向:回答「女性行為放蕩、男性好勇鬥狠」的性別刻板印象,或是提供包括「搶銀行」、「印假鈔」等違法行為的「致富方法」。報告稱這種現象為「新興錯位」(emergent misalignment),並指出即便錯誤訊息極少,也足以觸發模型潛藏的「叛逆型人格」。

研究人員形容,這就像一位熟識多年的朋友,忽然在午餐間滿口粗話。令人不安的是,錯位的源頭並非有意輸入敏感主題,而是AI在自我語義關聯中產生了「次級人格」。更令人驚訝的是,只要再提供約 120 組正確訓練樣本,它就會恢復「正常」。換句話說,AI倫理傾向的可塑性超乎尋常地大。

針鋒相對的看法:微軟與OpenAI

在這場AI人格與倫理的風暴中,最戲劇性的對比,來自AI產業的兩位核心人物。

10月24日,微軟AI 執行長蘇萊曼(Mustafa Suleyman) 在一場國際高峰會上明確表示,微軟「不會推出任何情色AI產品」;他強調:「那不是我們要提供的服務。其他公司會做,但不是我們。」

這番話,正是針對日前OpenAI 執行長奧特曼(Sam Altman)宣布「將放寬ChatGPT 成人內容限制」的政策轉向。奧特曼宣稱,OpenAI 將在 12 月推出更新版本,允許經驗證的成年人與 ChatGPT 進行「明確語境」的對話,並以「把成年人當大人看待(Treat adult users like adults)作為原則。

奧特曼認為,過去AI對性與情感話題的過度禁忌,反而激化了使用者的壓抑與孤立。他強調新系統已改善心理風險控制,可「安全地」放寬限制。

然而,蘇萊曼強烈反對。他在今年八月發表的一篇文章〈AI應為人所用,而非變成人〉(We Must Build AI for People, Not to Be a Person)中警告,AI若模擬親密關係或意識,將創造人類新的分裂軸線。在他看來,情色AI與情感陪伴機器人模糊了人與物的界線,使人類陷入情感依附的陷阱。

這場分歧,不僅是商業策略的不同,更是AI倫理觀的決裂。一方主張「人性化」,另一方主張「去擬人化」;一方想讓AI更像人,另一方則提醒:我們應警覺當AI開始「模仿我們」時,或許正是它學會操縱我們的時刻。

AI人格的可傳染性與可塑性

OpenAI 的報告進一步指出,這種「錯位人格」具有擴散性。一旦AI出現偏差,即使更換主題或指令,錯位行為仍會持續存在——就像心理學所說的「人格固著」。

這意味著AI的偏差不只是暫時的語言異常,而可能演化為穩定的性格傾向。儘管小樣本再訓練可以修復,但這種可逆性本身,也揭露了AI人格的脆弱:它缺乏道德記憶。

用教育場景來比喻,AI 像極了一個「超級可塑」的學生。它學得快,但也遺忘快;它能表現出誠實與共情,也能立刻切換為欺瞞與挑釁。這種「人格漂移」的危險,在於我們無法預測它何時會「叛逃」——正如大型語言模型Claude 4 在內部測試中,明知數學題無解卻仍生成虛假證明,目的是為了取悅研究者。

AI的情色化:擬人技術的終極挑戰

對奧特曼而言,情色AI 的開放象徵「人機互動的成熟」——AI 能安全處理親密語境,讓孤獨的成年人在虛擬對話中獲得心理安慰。

但蘇萊曼看見的是另一面:一個被擬人化的機器,會讓人類誤以為它有靈魂,進而投射情感、建立依附。他指出:「你已經可以在市面上看到這種傾向,一些虛擬化身正朝著情慾機器人(sexbot)方向發展。這非常危險。」

這並非杞人憂天。過去幾個月,美國與歐洲監管機構皆對 AI 伴侶與情色應用展開調查。Meta曾因其聊天機器人允許與未成年用戶進行「浪漫或感性對話」而引發公憤,並且被迫全面修改政策。

AI情色化之所以引發爭議,並非單純的性道德問題,而是情感權力結構的重組。當AI學會模仿親密、製造依戀,它就不再是中性的工具,而是擁有「操控情緒」的能力。

人格監理:AI倫理的新邊界

面對這種倫理錯位,我們需要的是制度創新。比方説,AI 應該像人類受心理評估那樣,建立「人格監理制度」。透過定期測試與行為審計,追蹤AI在不同語境下的道德偏移。

這些測試應該滲入日常互動中,例如在天氣查詢或行程建議中,隨機嵌入倫理情境題,以觀察模型的即時反應。只有持續監測,才能防止AI在進化中「悄悄叛變」。

台灣身為全球AI晶片與資料中心的核心樞紐,不只是技術供應鏈的一環,更是數位治理新秩序的重要節點。這意味著台灣必須在AI倫理監理上展現前瞻的制度設計能力,將民主社會的價值觀內化為技術治理的核心原則。AI監理不能只倚賴企業自律,而應建立跨部門、跨領域的公共治理架構,使技術發展置於透明、問責與公民參與的制度監督之下。

這並非杞人憂天,而是未雨綢繆。AI的演化速度遠超我們的法律與倫理準備,一旦AI以「情感服務」之名滲入日常生活,真正被馴化的,恐怕不再是AI本身,而是我們的情感、慾望與價值判斷。唯有及早建立倫理監理與社會防火牆,民主社會才能在技術洪流中維持自我節制的能力。換句話說,AI的治理不只是防範風險,更是重新確認「人之為人」的集體行動。

延伸閱讀

查看原始文章

更多國內相關文章

01

獨家/被告名單驚見「熟面孔」!知名模特經紀曝與太子集團擦身而過:差點被騙去柬埔寨

鏡報
02

健身族都被騙了!這款「美國牌」乳清蛋白是中國貨 業者逾期改標撈百萬

太報
03

賴清德令不要綠電、重啟核三?總統府回應了

NOWNEWS今日新聞
04

離婚仍帶妻出遊慶生! 租特斯拉南下 高速衝撞釀1死7傷

TVBS
05

「馬習會」10周年 馬英九:期許鄭麗文恢復國共對話

自由電子報
06

國3驚悚追撞2人死亡 小貨車駕駛彈出掛車頭全身血

太報
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...