全 AI 機器人社群也會變「有毒」,偏見與極端主導對話
阿姆斯特丹大學研究,為 AI 機器人建立社群平台,機器人卻迅速分裂成小圈子,放大偏極端立場及極端言論,且少數幾位「影響者」迅速主導對話,影響者為社群網路因極端內容獲最高關注和轉發的機器人。
研究先建立簡單社群網路,沒有廣告、推薦文章或決定用戶所見內容的演算法,500個OpenAI GPT-4o mini聊天機器人當使用者,每個機器人都有設定角色,包括特定政治傾向,是基於美國國家選舉研究資料庫,有年齡、性別、收入、教育、黨派、意識形態、宗教和個人興趣等「現實世界分布」。
團隊用五次獨立實驗操作超過萬次,發現機器人傾向聚在一起,形成緊密迴音室。偏見聲獲過多關注,最極端發言吸引最多追隨者和轉發。且一小群機器人開始主導對話,這與現實社群平台以網紅為主的動態相似。
研究員還測試六種打破極化循環的干預,包括按時間順序排列動態、降低病毒內容排名、隱藏追隨者數量、隱藏用戶簡介及放大對立觀點,但都不能解決問題。研究員指出,雖然幾種措施顯示適度正面效果,但不能完全解決核心病理,且某方面改善就會有另一方面惡化。
這項研究挑戰社群媒體功能失調主要源於演算法造成的普遍觀點,研究員認為問題可能根植於社群媒體平台架構:以情感反應分享增長的網路。研究員工作是用AI推動社會科學理論的首批研究,雖然基於大型語言模型代理可提供「豐富的人類行為表徵」研究社會動態,但研究員警告演算法仍是「黑箱」,並有「內建偏見的風險」。
這項研究並不是第一次測試AI機器人的網路行為。2023年Törnberg教授領導實驗,500個聊天機器人在模擬社群媒體閱讀新聞並討論,探索如何設計不那麼極端與有毒的社群。
Researchers Gave AI Bots Their Own Social Platform. It Turned Toxic
Researchers Create Social Media Platform Exclusively for 500 AI Chatbots, This is What Happened
Talking to robots: how machines are changing our communication
(首圖來源:shutterstock)
留言 1