AI 時代推升光通訊需求,Scale Out 引爆光模組市場
在 「矽光子/CPO:高速互聯驅動新AI時代」 演講中,集邦科技研究部副總儲于超表示,隨著 AI 應用大爆發,高速光通訊的重要性急遽提升,成為推動 AI 伺服器與資料中心架構演進的關鍵。他指出,目前產業聚焦於 Scale Up、Scale Out 與 Scale Across 三種擴展架構,分別對應不同的傳輸需求與技術挑戰,其中 Scale Out 所帶動的光通訊模組市場,正是未來數據傳輸的核心戰場。
AI 架構帶動高速傳輸需求
傳統伺服器主要依靠 CPU 線性提升算力;但在 AI 伺服器中,則透過 GPU、TPU 等裝置進行平行運算,並依靠高速連結彙整結果。這種架構要求高度「可擴展性(Scalability)」,也就是能從單一伺服器擴充至數十甚至上百個伺服器集群。高速傳輸因此成為 AI 時代的基石。
三大擴展模式:Scale Up、Scale Out、Scale Across
Scale Up:聚焦於伺服器櫃內的高速互連,傳輸距離通常在 10 公尺以內。由於延遲要求極低,主要以銅線傳輸為主,避免光電轉換造成的延遲與能耗。
Scale Out:強調跨伺服器的大規模平行運算,能解決大量數據吞吐並實現無限擴充。此領域以光通訊為核心,依距離與速率採用不同的光模組方案。
Scale Across:由 NVIDIA 近期提出,指跨資料中心的遠距連接,傳輸距離動輒數公里以上,目標是突破土地與電力受限的算力瓶頸。此領域完全依賴光纖傳輸,不涉及矽光 CPU 技術。
光模組需求急遽擴張
儲于超指出,光通訊雖主要應用於 Scale Out,但在 Scale Up 的應用情境中同樣展現巨大需求。例如,GB200 NVL72 透過 NVLink 5.0 以 1.8TB/s 速度傳輸,但對外頻寬仍受限於 800G 光模組。為匹配內外頻寬差距,業界多採 1:3 配置,推升光模組需求量。一台 NVIDIA 機櫃估計需配置超過 6,900 顆 Transceiver,而未來也將逐步朝 1.6T、3.2T 模組發展,以降低成本並提升效能。
光模組市場爆發式成長
集邦科技統計,全球 AI 伺服器市場將在 2025 年出貨逾 2,000 萬台,並於 2029 年達到高峰。雖然 2029 年 AI 伺服器出貨量年增率僅 8.7%,看似成長趨緩,但考量到高階光模組需求呈倍增態勢,實際出貨量預估將達到 71% 的大幅成長。特別是在 800G 以上高階光模組將成為主流配置下,市場需求將持續放大,主要買家涵蓋 NVIDIA、Google、Meta 與 AWS 等一線科技巨頭。
中美供應鏈變局下的台廠契機
目前全球光模組市場由中國廠商主導,市佔率超過五成。然而,隨著中美科技脫鉤加速,國際大廠紛紛要求供應鏈移出中國,轉向美國、東南亞甚至台灣。集邦科技認為,台灣擁有完整的半導體生態鏈,結合矽光子技術、IC 設計與代工優勢,有望在 AI 驅動的光通訊轉型浪潮中,扮演關鍵角色。
(首圖來源:科技新報)