「AI 將迅速接管金融體系。」《人類大歷史》作者哈拉瑞提醒 AI 本質是代理
當生成式 AI 席捲各大產業,未來最快被徹底改寫的領域之一,或許是金融。全球暢銷書《人類大歷史》的作者、歷史學家兼哲學家哈拉瑞(Yuval Noah Harari),在《華爾街日報》舉辦的 CEO 高峰會分享他對 AI 發展的看法,特別提到 AI 和過往科技的差異,以及為何要小心 AI 對金融體系造成的風險。
哈拉瑞提醒,AI 的本質不只是工具,而是一種代理(agent),因為 AI 可以獨立於人類做出決策、創造新想法、自我學習和改變,相比之下,其他人類發明如印刷機、原子彈,都是需要人類決策、賦予人類力量的工具。他更將 AI 比喻成「嬰兒」,表示人類可以盡己所能地教育它,但 AI 是獨立的個體,最終可能會做出讓人驚訝甚至恐懼的行為。
哈拉瑞為何點名金融體系?
「AI 將迅速接管金融體系,」哈拉瑞特別點名「金融」作為 AI 最快產生巨大影響的領域。他解釋,金融是極端資訊密集的領域,本質上並不牽涉到太多物理世界的操作,只需要輸出、輸入資訊,因此 AI 極易切入與掌握。
哈拉瑞日前在接受《WIRED》採訪也表示,綜觀歷史,人類發明了日益複雜的金融機制,而發明金融的目的在人與人之間建立信任和連結──即使兩個人不認識,但金錢讓彼此能夠合作,「發明一種人類無法理解的金融機制毫無意義,因為它無法建立信任。」
然而,AI 卻可能發明比利息、債券或股票更複雜的全新金融機制,並且只有 AI 本身可以理解,「AI 之間相互信任、溝通,最終形成一個金融網絡,而人類無法理解其中發生的事,」哈拉瑞表示,屆時人類將失去對金融體系的控制。
哈拉瑞曾經舉例,2008 年的金融危機,就是金融創新難以讓人類理解的結果──當監管機構無法充分理解新的金融產品,就無法對其進行監管。
人類應對 AI 變化的關鍵:信任、自我修正
這些言論聽來悲觀,但哈拉瑞在高峰會上說,他想表達的是 AI 既有巨大正向潛力,也有風險。他不相信歷史或技術決定論,因為人們可以用同一種技術創造出截然不同的社會。哈拉瑞表示,理想狀況下,應該相信 AI 能幫助人類處理超出理解範圍的事物,但是現在 AI 發展最大的問題卻可能是「我們如何讓 AI 值得信賴?目前我們還沒有答案。」
他認為,AI 革命最大的悖論就是信任悖論──人們急於開發一個自己並不完全信任的超級 AI,即便了解當中有許多風險,理性上應放慢開發速度、加大安全投資,並優先建立安全機制以確保 AI 不會失去控制,但實際上企業和各國仍以極快的速度展開 AI 軍備競賽。
在高峰會上,哈拉瑞也提及,未來要面對的 AI 是數百萬甚至數十億個擁有不同特性、由世界各地不同公司、國家開發的新 AI 代理。他表示,當這些 AI 代理彼此競爭時,人類對於「AI 社會」會發生什麼事毫無經驗,因此這將是人類史上最大的社會實驗。
這場社會實驗將帶來什麼挑戰?哈拉瑞在《WIRED》訪談提到,思考 AI 的未來時要考慮兩大問題,其一是信任,他指出目前人與人之間的信任岌岌可危,如果強化人類間的信任就能更好地適應 AI 革命;其二是被 AI 完全操縱或誤導的風險,因為人們被海量資訊轟炸以至於對周圍現實視而不見。
對於哈拉瑞來說,他認為一個新技術出現並不代表好或不好,只是人類還不懂怎麼運用 AI 發揮正面幫助,而這也是人類為何需要「自我修正機制」:一種能夠在致命事件發生前檢測並糾正的機制。他表示,AI 可能帶來重大失誤,正因如此,人類應更加謹慎、緩慢地推進,給自己時間去適應、發現並修正錯誤。
*本文開放合作夥伴轉載,資料來源:《WSJ》、Yuval Noah Harari、《COINTELEGRAPH》、《WIRED》,首圖來源:取自 Yuval Noah Harari
留言 0