請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI助理新聞摘要錯誤率達45%!BBC研究:Gemini引用品質最差、年輕世代盲信恐釀媒體信任危機

數位時代

更新於 10月31日02:30 • 發布於 10月27日09:22

重點一: 跨國大規模研究顯示,AI助理對新聞內容的表述有高達 45% 的錯誤,此系統性問題無關語言或平台,恐危及大眾信任。
重點二: 4大主流 AI 平台中,Gemini 的表現最差,有 76% 的回覆存在重大問題,主因是其引用來源的品質不佳。
重點三: 儘管錯誤率高,但仍有許多閱聽人(尤其年輕族群)信任 AI 助理提供的新聞摘要,且AI發生錯誤時認為新聞機構責無旁貸。

歐洲廣播聯盟(EBU)、英國廣播公司(BBC)近期公布一項大型跨國研究《AI 助理在新聞中的使用與認知》,揭發AI助理在處理新聞內容時,存在嚴重的系統性錯誤。

這項橫跨 18個國家、涵蓋 14 種語言的調查顯示,無論使用哪種語言、地區或平台, ChatGPT、Copilot、Gemini 或 Perplexity等AI 助理在回覆新聞相關問題時,高達 45% 的內容至少存在一個重大錯誤,其中,31%的內容在辨識、引用或連結所使用的原始資訊來源時出現錯誤,而20%的內容含有「重大準確性問題」,包括AI幻覺或引用過時資訊

如今有愈來愈多人使用AI 助理作為獲取資訊的主要入口, 特別是 25 歲以下族群中有 15% 就使用 AI 助理看新聞 。高錯誤率不僅威脅到新聞內容的準確性,更可能動搖民眾對新聞媒體乃至民主參與的信任。

EBU 媒體總監暨副總幹事德・騰德(Jean Philip De Tender)強調,這些錯誤並非單一事件,而是「跨越國界和多語言的系統性問題」,大眾若無法信任資訊來源,最終將「什麼都不信」。

觀察一:4大平台表現評比,Gemini 來源引用最棘手

這項研究評估了 ChatGPT、Copilot、Gemini 和 Perplexity 4大主流 AI 助理平台共 3,000 多個回覆,根據準確性、來源引用、事實與觀點的區分,以及提供背景資訊等關鍵標準進行評估。

結果顯示,錯誤的分布在不同平台間存在顯著差異, 其中 Gemini 的表現最為不佳,有 76% 的回覆被判定存在重大問題,這個比率是其他 AI 助理的2倍以上 。主要症結在於 Gemini 糟糕的「來源引用」表現,整體調查中,有 31% 的回覆存在嚴重來源問題,包括引用來源遺失、具誤導性或根本錯誤。

BBC 生成式 AI 專案總監亞契(Peter Archer)表示,雖然樂見 AI 帶來的價值,但大眾必須能夠信任他們所閱讀、觀看和聽到的內容,並願意與 AI 公司合作,共同解決這些明顯存在的重大問題。

觀察二:4大AI錯誤類型,「事實錯誤」最損信任感

為了深入了解錯誤對大眾信任的實際影響,研究測試了4種常見的 AI 錯誤類型,包括事實錯誤(Factual Errors)、觀點作為事實呈現(Opinion as Fact)、來源與歸屬錯誤(Sourcing Errors)和自行加入觀點(Introduction of Opinions)。 結果表明,所有錯誤都會嚴重損害用戶的信心,其中事實錯誤最具破壞力。

高達 84% 的英國成年人表示,事實錯誤(如日期、數字不準確)將對他們對 AI 摘要的信任產生重大影響,因為準確性是用戶對新聞內容最基本的底線。

觀點作為事實呈現類型中,有 81% 的人認為這會嚴重損害信任,因其破壞了公正性讓用戶感覺 AI 系統在選邊站或有隱藏偏見。

即使是更為技術性的來源與歸屬錯誤(如錯誤引用新聞機構),也有 76% 的人表示會破壞信任,讓人質疑內容真實性。

當 AI 助理自行加入原始報導中沒有的觀點時,模糊了報導與評論的界線,有 73% 的人會因此對其信任大打折扣。

報告強調,在大家習慣快速瀏覽資訊的時代,任何一個小錯誤,都會在用戶心中留下負面印象。

觀察三:AI 錯誤回應闖禍,媒體恐背連坐黑鍋

這項研究還揭露了一個對新聞媒體來說很頭痛的問題:當AI發生錯誤時,閱聽人不僅會責怪 AI 服務提供商,也會將矛頭指向新聞提供者。

許多人錯誤地假定 AI 助理提供的新聞摘要是準確的。在英國成年人中,超過三分之一新信AI 能產生準確的摘要,而在 35 歲以下的年輕族群中,這個比例更攀升至近一半。

而當AI內容出現錯誤時,大多數英國成年人認為 AI 服務提供商 (36%) 和政府/監管機構 (31%) 應負責確保 AI 回覆的準確性。

即使錯誤是由 AI 摘要生成所致,仍有 23% 的人認為「新聞提供商」應該為與他們名稱相關聯的內容負責,有 35% 的人本能地同意新聞來源就該為 AI 摘要中的錯誤負責。 這些都表明 AI 助理的失誤,可能連帶對新聞媒體的信譽造成負面影響,即使錯誤並非新聞機構所致。

報告也指出,若想恢復民眾的信任,AI 平台必須提供清楚的來源、時間和連結,並且一旦修正錯誤,要確保在所有地方都能同步更新,避免讓新聞媒體成為 AI 錯誤的替罪羔羊。

AI新聞摘要仍是演算法,動搖新聞品牌信任度

這份報告警告 AI 摘要中立的可靠表象創造了用戶的盲點。由演算法帶來的虛假確定性,導致用戶在接收資訊時鬆懈了查證的本能。

如果這種情況持續,AI 的系統性錯誤不僅會讓用戶失去對技術本身的信任,還可能悄悄侵蝕用戶對整體新聞品牌的可信度與信任感,最終對整個新聞環境造成負面衝擊。

延伸閱讀:好險,AI文章還沒有占據你的世界!AI文章數量與人寫文章曾出現「黃金交叉」,現在呈55波
「只懂古典物理的LLM,無法提出相對論!」學者解密AI思維鏈:為何光寫提示詞,配不上「工程」兩字?

資料來源:BBC

本文初稿為AI編撰,整理.編輯/ 蘇柔瑋

延伸閱讀

Obsidian教學|Obsidian是什麼?跟Notion差在哪?如何用它生成「知識網路」筆記?
Anthropic贏面比OpenAI更大?從3大指標看懂AI商模:為何「穩健好用」才是獲利王道?
「加入《數位時代》LINE好友,科技新聞不漏接」

查看原始文章

更多理財相關文章

01

直播認割韭菜!泡泡瑪特員工:價格「確實過分」 股價蒸發近4成

三立新聞網
02

起底/日產靠台灣神秘買家續命 台灣隱形千億富豪曝光

鏡報
03

普發1萬上車0050!20年翻成14萬 讓台積電、鴻海幫你生財

三立新聞網
04

一萬元的金錢考試,你願意讓孩子交空白卷嗎?

moneybar
05

獨家/以為拿錯訃聞? 鎢鋼大王廖萬隆改姓張原因曝

三立新聞網
06

爸爸回來了!黃仁勳留台1天半行程曝 這原因沒空逛夜市:我想他了

三立新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...