請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

理財

GPT-5.2 訓練首次使用 GB200-NVL72 ,效能較 Hopper 大幅提升

科技新報

更新於 12月12日10:36 • 發布於 12月12日10:26

OpenAI 表示,GPT-5.2 的訓練採用輝達 Blackwell GPU(GB200-NVL72),並與 Azure 大規模部署的 H100、H200 搭配運行,強化模型在推理與專業任務上的整體效能。

根據輝達在 8 月的 Facebook 發文,GPT-5 雖同樣使用 Hopper 架構(H100/H200)進行訓練,但並未採用 GB200-NVL72 叢集,而是僅於部署端使用相關系統。相較之下,GPT-5.2 將 Blackwell 納入訓練流程,被外界視為 OpenAI 針對近期 Google Gemini 3.0 推出後,加速模型更新的重要調整。

NVIDIA 官方數據顯示,GB200 NVL72 在 512 GPU 規模下,可提供較 H100 高達 3.2 倍的訓練效能,並帶來 1.9 倍的訓練成本效益(performance per dollar);若以 Blackwell Ultra(GB300)作為平台上限,其訓練速度較 Hopper 可達 4.2 倍。

(Source:輝達

透過 NVFP4 精度模式與第五代 NVLink/NVSwitch 設計,Blackwell 能在單一系統中以高頻寬連結 72 顆 GPU,使其在超大型模型運算中具備更高的效率密度,適合應對近年快速擴張的 LLM 訓練需求。

GPT-5.2 將陸續向用戶開放,實際體驗與模型效果仍有賴市場後續觀察。另外,隨著 Blackwell Ultra(GB300)開始出貨並由主要雲端服務商部署,市場普遍預期未來 GPT 系列模型將逐步導入更高階的 Ultra 平台,以縮短訓練週期並提升能源效率。

(首圖來源:Unsplash

立刻加入《科技新報》LINE 官方帳號,全方位科技產業新知一手掌握!

查看原始文章

更多理財相關文章

01

他想借弟弟100萬當買房頭期款  1關鍵網勸:怎麼幫才是重點

民視新聞網
02

獨家/記憶體暴漲三個月不回頭 一位筆電業高層的沈重告白

鏡報
03

記憶體狂飆/DRAM缺貨一路到2027年 筆電供應鏈「ㄘㄨㄚˋ著等」

鏡報
04

無薪假人數大減2000人、創近三個月新低 勞動部:「這因素」讓大企業暫停通報

太報
05

500萬節電登錄戶注意!長達11年的84元最低節電獎勵金走入歷史

太報
06

美股交易大變革?那斯達克將推「全天候交易」 買輝達蘋果不用再熬夜了

三立新聞網
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...