AI 模型集體「偏心」,文化答案首選日本與美國
歐洲研究團隊最新發表的一篇研究指出,部分大型語言模型(LLM)在回答文化相關問題時,會異常頻繁地將答案導向日本文化;即使排除與提問語言直接相關的國家後,模型仍明顯偏向日本與美國。這項研究由西班牙巴斯克大學(University of the Basque Country)、英國卡地夫大學(Cardiff University)等機構學者共同完成,並透過自建資料集與多款主流模型測試,揭示生成式 AI 可能存在隱性的文化與地域偏差。
研究團隊建立名為「Culture-Related Open Questions,CROQ)」的資料集,收錄 24 種語言、共 31,680 個開放式文化問題,題目涵蓋傳統舞蹈、日常飲食等,刻意不指定任何國家或地點。
受測模型包括 GPT-4o-mini、Gemini 2.5 Flash、Claude 3.5 Haiku、Llama-4 Maverick、Command-R 08-2024、Magistral-small-2506、DeepSeek-v3.2-exp 以及 Qwen3-next-80b-a3-b-instruct。結果顯示,當模型被要求自行選擇回答場景時,常傾向將提問語言所屬國家做為文化背景;而在排除這層直接連結後,日本與美國則成為最常被提及的國家,其中日本偏好尤為明顯,在 8 個模型中有 6 個將日本列為最常引用的國家。
研究也進一步追查偏差可能出現在哪個訓練階段。以開放模型進行的追加實驗發現,基礎模型(Base Model)在事前學習階段對各國文化的參照相對分散、較為平衡;但經過事後學習後,回答分布明顯收斂,對日本與美國的偏重隨之加劇。研究團隊因此認為,原本被視為提升模型實用性與安全性的微調流程,可能在文化語境中帶來副作用,讓 AI 的輸出變得更單一,進一步壓縮全球文化的多樣性。
(首圖來源:shutterstock)