ChatGPT是廢文製造機?英國學者揭:AI不在乎真實性,只會生成「看似可信」的文本
重點一:英國學者發表論文主張,大型語言模型(如ChatGPT)產生的錯誤資訊,不應被稱為「AI幻覺」(AI hallucinations),而應正名為哲學意義上的「胡說」(bullshit),因其系統設計本質上對真相漠不關心。
重點二:「AI幻覺」一詞具有誤導性,它暗示模型試圖陳述事實卻失敗,掩蓋了其核心運作機制是「生成看似可信的文本」而非「傳達真相」。這種誤解可能引導錯誤的技術解決方案與公眾認知。
重點三:論文將「胡說」分為兩種:僅對真相冷漠的「軟胡說」(soft bullshit),以及意圖欺騙聽眾、偽裝成真理講述者的「硬胡說」(hard bullshit)。學者認為ChatGPT至少是前者。
針對大型語言模型 (Large Language Models, LLMs) 如 OpenAI 公司的 ChatGPT 頻繁產出不實資訊的現象,哲學學術界提出了一個顛覆性的觀點。
根據英國格拉斯哥大學 (University of Glasgow) 學者Michael Townsen Hicks等人於2024年6月份發表於《倫理與資訊科技》(Ethics and Information Technology) 期刊論文,目前業界與媒體普遍使用的「AI幻覺」(AI hallucinations) 一詞,不僅不精確,更具有高度誤導性。
研究團隊甚至直接將論文標題訂為「ChatGPT is bullshit」(ChatGPT 簡直胡扯),以主張這些看似是模型「感知錯誤」的內容,其本質更應被理解為哲學家哈里·法蘭克福 (Harry Frankfurt) 所定義的「胡說」(bullshit)。
核心論點在於,大型語言模型的設計目標並非傳遞或驗證事實,而是根據龐大的數據資料,計算並生成最可能符合語境、看起來最像人類會說的話。
研究指出,這種運作機制意味著, 系統本身對於其產出內容的真實性「漠不關心」,這正是「胡說」的關鍵特徵:一種完全不在乎真假的言談。 此論點挑戰了當前對AI錯誤的普遍認知,並呼籲對這些系統的能力與意圖進行更準確的描述。
「AI幻覺」一詞的誤導性與潛在風險
本研究並非一項實驗性或量化研究,其主要採用的是哲學分析與概念辨析(Philosophical Analysis and Conceptual Clarification)的方法。研究者深入探討了哲學家哈里・法蘭克福在《論胡說》(On Bullshit)一書中建立的哲學概念 。他們將此哲學理論應用於分析大型語言模型的新興科技現象,深入剖析為何將AI的錯誤資訊標籤為「幻覺」會帶來問題。
研究作者 Michael Townsen Hicks、James Humphries 及 Joe Slater 指出 ,「幻覺」這個詞彙源自人類心理學,暗示著一個主體(AI)在嘗試感知或陳述真實世界時,發生了認知偏差或錯誤。這會讓公眾、政策制定者甚至開發者誤以為,AI的目標是追求真理,只是偶爾會「看錯」或「記錯」。
然而,論文強調,這與大型語言模型的根本架構背道而馳。 AI生成錯誤資訊,並非系統在追求準確性過程中的「異常」或「故障」,反而是其核心預測功能的「正常」展現。模型的唯一目標是依據提示詞 (prompt),生成統計上最合理的下一個詞彙,串連成流暢且具說服力的文本。
因此,無論其產出是事實還是虛構,背後的運作過程完全相同。 研究警告,使用「幻覺」一詞會淡化模型開發者的責任,讓人們將問題歸咎於AI本身,同時可能引導研究人員朝著錯誤的方向尋求解方,例如試圖「修正」AI的感知,而非正視其設計上與生俱來的局限性。
剖析AI的「胡說」:軟性與硬性的層次
為了更精確地描述大型語言模型的行為,論文引用了法蘭克福的哲學概念,並進一步將「胡說」區分為兩個層次:「軟胡說」(soft bullshit) 與「硬胡說」(hard bullshit)。
「軟胡說」指的是產出的言論對真實性漠不關心,沒有欺騙聽眾的意圖;「硬胡說」則更進一步,指言說者不僅不在乎真相,還積極地試圖誤導聽眾,讓對方相信自己是在傳遞經過深思熟慮的資訊。
研究團隊認為, ChatGPT 毫無疑問是一個「軟胡說」的產生器。因為無論我們是否將意圖歸於AI,其系統設計本身就缺乏對真相的關心。而它是否構成「硬胡說」,則取決於我們如何看待AI的「意圖」。
若將其設計者的意圖納入考量,亦即創造一個看似能進行有意義對話、實則僅是模仿人類言談的程式,那麼 ChatGPT 的行為便帶有欺騙性質,意圖讓使用者誤以為它是一個關心事實的對話夥伴,這就符合了「硬胡說」的定義。
總結來說,無論層次為何,使用「胡說」一詞能更準確地揭示大型語言模型的本質,提醒使用者對其產出的一切內容保持警惕,因為即使內容恰好為真,也僅是巧合,而非系統追求真相的結果。
都是AI的錯?可能…也不盡然
有趣的是,今年5月份,有另一份論文回應了「ChatGPT is Bullshit」。亞利桑那大學歷史、哲學和宗教研究學院的助理教授Jimmy Licon指出, ChatGPT等LLM之所以會產生「bullshit」,部分原因在於人類本身就常常「bullshit」。 簡單來說,LLM是根據大量人類語言資料訓練而成,因此「bullshit in, bullshit out」。
這份論文主要探討人類「bullshit」的三大動機,包括了維護聲譽(reputation management)、展示自身智慧(signaling intelligence),以及參與「bullshit市場」(marketplace for bullshit)。
Licon強調,上述三大動機促使人們利用LLM(如ChatGPT)來更有效地「bullshit」彼此。換句話說,LLM本身其實不具備意圖,它們僅僅反映了人類語言與行為特徵。 也因此,LLM產生「bullshit」的現象,根源在於人類本身的「bullshit」傾向與社會動機。
延伸閱讀:程式設計快沒飯吃了?AI搶工作掀失業率,理科高材生被迫轉行應徵快餐店員工
台灣第一家香水股!「光速火箭」成立僅十年,年銷逾20萬瓶、營收衝7億元!
資料來源:link.springer.com、ChatGPT is bullshit
本文初稿為AI編撰,整理.編輯/ 李先泰
延伸閱讀
國泰CUBE卡、台新Richart卡、玉山Unicard權益方案差在哪?3大權益自選信用卡攻略
比上市更狂!全球未上市巨頭TOP50出爐,SpaceX、OpenAI估值飆破3千億美元
「加入《數位時代》LINE好友,科技新聞不漏接」
留言 0