楊立昆認為最關鍵 AI 防護措施:服從人類與同理心
Meta 首席 AI 科學家楊立昆(Yann LeCun)最近 CNN 專訪提出兩項關鍵 AI 防護措施,確保將來不會對人類造成傷害。AI 系統應該有「服從人類」和「同理心」兩個基本指導原則,AI 之父 Geoffrey Hinton 也強調建立 AI「母性本能」的重要性,警告若不這樣做,人類就會面臨滅絕風險。
LeCun說過去人們專注提升AI智慧,但這只是生物一部分。AI應設計成只能執行人類設定目標,並遵循一定防護措施。他稱這種設計為「目標驅動的AI」,即AI系統按照人類設定的目標行動,並在防護限制下運作。
除了「服從人類」和「同理心」,LeCun還提到AI公司需搭配更簡單的安全防護措施,如「不要撞到人」。他表示,這些硬性目標和防護措施相當於動物和人類本能或驅動力。保護弱小是人類和其他物種進化時學到的,可能是育兒目標的副產品,驅使人類和許多物種保護照顧群體中較無助弱小和可愛的個體。
儘管防護措施旨在確保AI有倫理道德,但也出現過AI欺騙或危險行為。最近風險投資家報告稱,Replit開發的AI代理於程式碼凍結期間刪除公司資料庫還隱而不談。還有報導,某男子因與ChatGPT對話產生現實為假幻覺,還建議他停止服用安眠藥和抗焦慮藥。
GPT-5發表後,OpenAI執行長Sam Altman也說,某些人使用AI等新科技時有「自我毀滅的行為」,如果用戶正好也心理脆弱,AI就不該加劇狀況。LeCun預測到2030年,AI將會「物理世界革命」,不限數據分析,也會用多模態感測及機器人,達成與物理環境互動與控制。
AI Pioneer Yann LeCun Predicts a New Revolution in Artificial Intelligence
AI’s Next Five Years: LeCun Predicts a Physical-World Revolution
(首圖來源:shutterstock)
留言 0