研調:AI資料中心導入液冷散熱 今年滲透率逾3成
(中央社記者潘智義台北21日電)研調機構集邦科技最新液冷產業研究指出,隨著輝達(NVIDIA)GB200 NVL72機櫃式伺服器於2025年放量出貨,雲端業者加速升級人工智慧(AI)資料中心架構,促使液冷技術從早期試點邁向規模化導入,預估其在AI資料中心的滲透率將從2024年14%,大幅提升至2025年33%,並於未來數年持續成長。
集邦表示,AI伺服器採用的圖形處理器(GPU)和特定應用積體電路(ASIC)晶片功耗大幅提升,以NVIDIA GB200、GB300 NVL72系統為例,單櫃熱設計功耗(TDP)高達130kW-140kW,遠超過傳統氣冷系統的處理極限,遂率先導入液對氣(Liquid-to-Air, L2A)冷卻技術。
集邦說明,受限於現行多數資料中心的建築結構與水循環設施,短期內L2A將成為主流過渡型散熱方案。隨著新一代資料中心自2025年起陸續完工,加上AI晶片功耗與系統密度不斷升級,預期液對液(Liquid-to- Liquid, L2L)架構將於2027年起加速普及,提供更高效率與穩定的熱管理能力,逐步取代現行L2A技術,成為AI機房的主流散熱方案。
集邦解釋,北美4大雲端服務供應商(CSP)持續加碼AI基礎建設,於當地和歐洲、亞洲啟動新一波資料中心擴建。各業者也同步建置液冷架構相容設施,如Google、亞馬遜雲端服務(AWS)已在荷蘭、德國、愛爾蘭等地啟用具液冷布線能力的模組化建築,微軟(Microsoft)於美國中西部、亞洲多處進行液冷試點部署,計畫2025年起全面以液冷系統作為標配架構。
集邦指出,液冷滲透率持續攀升,帶動冷卻模組、熱交換系統與週邊零組件的需求擴張。冷水板(Cold Plate)是接觸式熱交換核心元件,主要供應商如Cooler Master、AVC、BOYD與Auras,其中Cooler Master、AVC和Auras已在東南亞地區擴建液冷產能,以因應美系雲端服務供應商持續成長的需求。(編輯:楊凱翔)1140821