【打破 AI 記憶瓶頸】中國研究推出首個 AI「記憶作業系統」MemOS,稱比 OpenAI 準確逾 38%
現在的 AI 大型語言模型(LLM)雖然具備強大生成能力,卻普遍缺乏「持續性記憶」能力。舉例來說,前一次在 AI 對話提到的飲食禁忌,下一次請 AI 推薦餐廳時就會被遺忘;或在某個 AI 平台上建立的洞察和知識,無法延續到另一個平台。這種研究人員稱為「記憶孤島」的問題,限制了 AI 系統在人機關係、長期任務與個人化應用的發展潛力。
為了解決此問題,《VentureBeat》報導,中國一個研究團隊近日發表一套名為 MemOS 的系統,聲稱打造出全球首個 AI「記憶作業系統」(Memory Operating System),將記憶體視為可調度、可演化的核心運算資源,類似傳統作業系統對 CPU 或儲存空間的管理方式。該專案由上海交通大學、浙江大學等機構聯合開發,於 7/4 發表在論文平台 arXiv。
這和 ChatGPT 的「記憶」功能有何不同?
研究團隊指出,現有的 AI 模型(如 ChatGPT)主要依賴靜態參數和短期上下文,雖然提供記憶功能,但仍存在容量限制、存取不穩定、更新不透明以及不可編輯等問題,屬於「被動記錄」而非「結構化管理」,因此難支援個人化與長期任務。在研究中,OpenAI ChatGPT 的記憶功能被描述為一種商業化閉源模組,內部運作不透明。
儘管檢索增強生成(RAG)技術能即時呼叫外部知識,但研究團隊認為,這僅是暫時解法,缺乏記憶體管理與知識演進能力。因此,他們提出 MemOS 架構,讓 AI 記憶具備生命週期管理、跨平台遷移、記憶體類型間的動態轉換和調度、為大型語言模型更高的可控性和演化能力,奠定 AI 模型個人化的基礎。
讓 AI 推理能力大幅提升,怎麼做到的?
根據研究團隊說明,MemOS 在針對記憶密集型推理任務的 LOCOMO 基準測試中, 於時間推理、多步推理、開放領域與單步推理任務的平均分數超越現有 AI 系統;與 OpenAI 相比,MemOS 的推理準確率提升 38.97%,省下超過 60.95% 的 token 使用量。
效能提升的關鍵,在於系統導入研究團隊命名為「MemCubes」的標準化記憶單元,能封裝從自然語言到模型內部參數等多類型資訊,並支援時間上的組合、遷移與演化。《VentureBeat》指出,這證明「記憶瓶頸」對 AI 發展的關鍵性,遠高於過去產業普遍認知。
MemOS 開源釋出,可能重塑企業部署 AI 方式
隨著企業越來越仰賴 AI,又需和客戶、員工建立持續且複雜的關係,MemOS 有望帶來新的 AI 部署方式。舉例來說,行銷團隊可能在 ChatGPT 建立了詳細的消費者角色模型,但換到其他工具規劃行銷活動時又須重建;而 MemOS 則透過標準化記憶格式,實現系統間的記憶遷移。
該研究還提出「付費記憶模組」的商業化概念,也就是專家可將領域知識封裝成可以購買的記憶單元。例如經驗豐富的醫師則可將診斷準則、問診流程與典型病例進行打包,提供正在臨床實習的醫學生於 AI 系統使用。
《VentureBeat》指出,這種模式可能顛覆專業知識的變現與傳遞方式,不只創造專家的新收入模式,也有助於促進高品質知識的民主化流通,讓企業能更快速地部署具備深度專業知識的 AI 系統。
為推動技術應用,團隊已將 MemOS 在 GitHub 上開源,並支援 HuggingFace、OpenAI、Ollama 等主流平台整合,以促進採用與社群參與。
*本文開放合作夥伴轉載,資料來源:《VentureBeat》、arXiv、MemOS,首圖來源:AI 工具生成
留言 0