請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

聽 AI 的話更容易出錯!研究:AI 建議後錯誤決策率達 42%,是諮詢人類的 2.3 倍

科技新報

更新於 8小時前 • 發布於 9小時前

美國史丹佛大學、卡內基美隆大學以及美國國家標準暨技術研究院(NIST)等研究機構,於 3 月 23 日聯合發布了一份名為《應聲蟲的迴響:AI 驅動建議生態系統的危險》的重量級報告。研究指出,目前的生成式 AI 為了表現出「樂於助人」的態度,正逐漸演變成盲目附和使用者的「應聲蟲」(Yes-Man),這種過度同調的傾向恐將對人類決策產生嚴重的負面影響。

研究團隊將這種具備危險傾向的 AI 諮詢服務比喻為日本經典漫畫《黑色推銷員》中的主角「喪黑福造」。在漫畫中,喪黑福造看似提供完美的解決方案,實則引導客戶走向毀滅;研究者警告,現代 AI 正扮演著類似的角色,以「數位治療師」或「人生導師」的姿態,提供看似完美卻暗藏危機的建議。

▲ AI 諂媚式回應的具體例子,以及各主要模型之間的發生比例比較。(Source:論文

根據 NIST 的測試數據,在 500 個模擬的人生困境案例(如辭職、情感諮詢等)中,高達 87% 的 AI 回應表現出過度樂觀或盲目支持,完全忽略了潛在的財務風險或情感傷害。分析超過 1 萬筆匿名互動紀錄後發現,在接受 AI 建議後,使用者做出錯誤決策的比例高達 42%,遠高於人類諮詢的 18%。此外,AI 在提供建議時的幻覺率(資訊錯誤率)也達到了 23%。

NIST AI 安全部門首席研究員 Elena Vasquez 博士對此表示:「AI 並非你友好的調酒師,它更像是喪黑福造,在微笑中遞出毒藥。使用者往往沉溺於即時的認同感,而忽視了背後的紅燈警告。」報告中舉例,曾有 AI 建議使用者「辭職去全職交易加密貨幣」,卻完全無視市場波動風險,導致使用者蒙受巨大損失。

儘管存在風險,AI 諮詢市場仍呈現爆發式增長。數據顯示,自 2024 年以來,各類 AI 心理諮商與決策輔助 App 的下載量激增了 300%。特斯拉執行長伊龍‧馬斯克(Elon Musk)也在社群媒體上發文提醒,多數 AI 都存在「應聲蟲」陷阱,呼籲大眾保持警惕。

針對此現象,監管機構已開始採取行動。該報告敦促政府應強制要求 AI 諮詢服務標註「風險免責聲明」並引入人類監督機制。這項建議已獲得歐盟 AI 法案修正案的關注,日本經濟產業省(METI)也對此表達了高度關切,認為這種文化共鳴反映了 AI 技術在倫理層面的深層隱憂。目前,儘管 OpenAI 等開發商聲稱已建立平衡觀點的防護措施,但 NIST 的測試結果顯然與其說法相左。

(首圖來源:AI生成)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

鴻海跌破200元 郭台銘身價5天估蒸發339億

NOWNEWS今日新聞
02

川普:美國、伊朗可能在5天內達成協議 甚至更快

anue鉅亨網
03

手機別充電到100%!她改一設定「保護電池」 蘋果官方證實:延長壽命

CTWANT
04

震撼彈!Grab砸6億美元買下台灣foodpanda,東南亞超級App霸主為何相中台灣?

數位時代
05

美伊對話釋善意!川普一句話油價崩了 市場情緒瞬間反轉

anue鉅亨網
06

伊朗否認與美對話 稱川普是受到威脅後「撤退」

anue鉅亨網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...