要繞過 AI 晶片依賴 HBM,華為研發新 AI 記憶體解決方案
根據外媒的最新報導,中國科技大廠華為正積極投入 AI 記憶體的研發,該計畫為的是對抗西方技術限制、降低對高頻寬記憶體(HBM)依賴的關鍵一步。這款新型記憶體專為 AI 工作執行而設計,目標是有效取代目前中國 AI 硬體發展面臨瓶頸的高頻寬記憶體解決方案。
Wccftech 引用中國媒體消息,華為這款突破性的 AI 記憶體可能以固態硬碟(SSD)的形式出現,並針對資料中心環境進行深度優化。這情況凸顯了華為在全球半導體供應鏈緊張及地緣政治限制下,尋求自主創新、降低對西方依賴的戰略決心。而雖然具體技術細節尚未披露,但報導指出華為的 AI SSD 將克服現有記憶體容量的限制,提供高效能且無縫接軌的容量擴展。這不僅能大幅提升 AI 運算能力,而且在效能和效率上,有望與 HBM 匹敵,成為一個可行的替代方案。
對中國 AI 硬體面臨 HBM 解決方案能力不足困境,無疑是一劑強心針。考量到 HBM 供應因地緣政治因素受到大規模限制的現狀,華為的研發工作將可以為中國國內的 AI 產業提供穩定且自主的記憶體供應鏈,進而擺脫對國際供應鏈的依賴。
正值中國積極推動 AI 晶片100% 自給自足政策的關鍵時刻,目標是在 2027 年前達成此一目標。為此,中國預計在未來幾年內顯著增加 AI 晶片產量。其中,華為做為中國科技大廠,其在 AI 記憶體領域的創新直接響應了中國的國家戰略,全力於彌補與西方在先進記憶體技術方面的差距。現階段,儘管像長鑫存儲(CXMT)等中國公司在記憶體方面有所進展,但與西方先進解決方案相相較仍有一定的差距。
外界認為華為在 AI 運算領域的發展迅速,包括推論和訓練的硬體方面都展現出實力。為應對外部的限制,華為已採取多方面的策略。首先,華為已推出統一快取管理器(UCM)軟體套件,這是一項創新的軟體解決方案。UCM 能夠加速大型語言模型(LLM)在多種記憶體(包括 HBM、標準 DRAM 和 SSD)之間的訓練,進一步有效地擴展 AI 相關工作的記憶體使用範圍。如此在面對 HBM 硬體限制時,成為一個無需導入新能力型硬體的潛在解決方案。
其次,華為已向公眾展示了其 CloudMatrix AI 叢集,公司宣稱這與 NVIDIA GB200 具同級效能,使得中國在先進 AI 硬體領域開始有了重大突破。儘管華為的 CloudMatrix 384 AI 叢集向中國客戶交付的成本是 NVIDIA GB200 NVL72 系統的三倍,但其仍然意義重大,顯示其技術實力。
最後,NVIDIA 首席科學家 Bill Dally 也曾表示,越來越多的 AI 工程師正轉投華為,這代表中國的競爭正在迎頭趕上,並逐步縮小與 NVIDIA 等業界領先者的差距。再加上要進一步鞏固中國 AI 晶片自給自足的基礎,華為據稱正積極於中國建設一座大型晶片廠,預計該晶圓廠將在減少對外國晶片供應實體的依賴中扮演關鍵角色。
儘管華為的這些發展令人期待,但該 AI 記憶體解決方案的具體實施方式和詳細規格尚未公開。因此,市場和業界在評估這些宣稱的效果時,曬保持謹慎態度。然而,無論最終成果如何,華為在 AI 記憶體及相關硬體、軟體領域的持續投入,都凸顯了其在建立獨立自主的 AI 生態系統上的布局,對於中國在全球 AI 競爭格局中的地位具有深遠影響。
(首圖來源:Flickr/Web Summit CC BY 2.0)