請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

AI 時代推升光通訊需求,Scale Out 引爆光模組市場

科技新報

更新於 9小時前 • 發布於 9小時前

在 「矽光子/CPO:高速互聯驅動新AI時代」 演講中,集邦科技研究部副總儲于超表示,隨著 AI 應用大爆發,高速光通訊的重要性急遽提升,成為推動 AI 伺服器與資料中心架構演進的關鍵。他指出,目前產業聚焦於 Scale Up、Scale Out 與 Scale Across 三種擴展架構,分別對應不同的傳輸需求與技術挑戰,其中 Scale Out 所帶動的光通訊模組市場,正是未來數據傳輸的核心戰場。

AI 架構帶動高速傳輸需求

傳統伺服器主要依靠 CPU 線性提升算力;但在 AI 伺服器中,則透過 GPU、TPU 等裝置進行平行運算,並依靠高速連結彙整結果。這種架構要求高度「可擴展性(Scalability)」,也就是能從單一伺服器擴充至數十甚至上百個伺服器集群。高速傳輸因此成為 AI 時代的基石。

三大擴展模式:Scale Up、Scale Out、Scale Across

  • Scale Up:聚焦於伺服器櫃內的高速互連,傳輸距離通常在 10 公尺以內。由於延遲要求極低,主要以銅線傳輸為主,避免光電轉換造成的延遲與能耗。

  • Scale Out:強調跨伺服器的大規模平行運算,能解決大量數據吞吐並實現無限擴充。此領域以光通訊為核心,依距離與速率採用不同的光模組方案。

  • Scale Across:由 NVIDIA 近期提出,指跨資料中心的遠距連接,傳輸距離動輒數公里以上,目標是突破土地與電力受限的算力瓶頸。此領域完全依賴光纖傳輸,不涉及矽光 CPU 技術。

光模組需求急遽擴張

儲于超指出,光通訊雖主要應用於 Scale Out,但在 Scale Up 的應用情境中同樣展現巨大需求。例如,GB200 NVL72 透過 NVLink 5.0 以 1.8TB/s 速度傳輸,但對外頻寬仍受限於 800G 光模組。為匹配內外頻寬差距,業界多採 1:3 配置,推升光模組需求量。一台 NVIDIA 機櫃估計需配置超過 6,900 顆 Transceiver,而未來也將逐步朝 1.6T、3.2T 模組發展,以降低成本並提升效能。

光模組市場爆發式成長

集邦科技統計,全球 AI 伺服器市場將在 2025 年出貨逾 2,000 萬台,並於 2029 年達到高峰。雖然 2029 年 AI 伺服器出貨量年增率僅 8.7%,看似成長趨緩,但考量到高階光模組需求呈倍增態勢,實際出貨量預估將達到 71% 的大幅成長。特別是在 800G 以上高階光模組將成為主流配置下,市場需求將持續放大,主要買家涵蓋 NVIDIA、Google、Meta 與 AWS 等一線科技巨頭。

中美供應鏈變局下的台廠契機

目前全球光模組市場由中國廠商主導,市佔率超過五成。然而,隨著中美科技脫鉤加速,國際大廠紛紛要求供應鏈移出中國,轉向美國、東南亞甚至台灣。集邦科技認為,台灣擁有完整的半導體生態鏈,結合矽光子技術、IC 設計與代工優勢,有望在 AI 驅動的光通訊轉型浪潮中,扮演關鍵角色。

(首圖來源:科技新報)

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

SEMICON Taiwan 2025 登場!台積電與輝達都關注「矽光子概念股」一次看

科技新報
02

泰山前董事會糟了!處分全家股權、投資街口、擴建包裝水廠3決議 全遭法院判無效

太報
03

YouTuber、網紅注意!財政部出手課稅了 規範重點一次看

CTWANT
04

存款3百多萬!全押0050還是買房?網秒選:先下手

EBC 東森新聞
05

緯創(3231)、廣達(2382)、聯電(2303)...避九月魔咒,15檔個股宜「居高思危」:AI族群回檔才是買點

今周刊
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...