請更新您的瀏覽器

您使用的瀏覽器版本較舊,已不再受支援。建議您更新瀏覽器版本,以獲得最佳使用體驗。

科技

WEKA 推出新一代 WEKApod 設備,重新定義人工智能儲存經濟效益

PR Newswire 美通社

更新於 11月19日22:56 • 發布於 11月19日22:27 • PR Newswire

搭載 AlloyFlash 技術的 WEKApod Prime 以 65% 的價格性能優勢實現突破性成本效益;WEKApod Nitro 則提供前所未有的效能密度,為高要求的人工智能工作負載提供兩倍速度提升。

聖路易斯和加州坎貝爾 2025年11月20日 /美通社/ -- 於 SC25 大會上:人工智能 (AI) 儲存公司 WEKA 宣布推出新一代 WEKApod™ 設備,旨在顛覆傳統效能與成本之間的取捨關係。全新設計的 WEKApod Prime 設備透過智能化配置混合快閃記憶體架構,實現數據智能佈局,將性價比提升 65%,在不妥協的前提下帶來突破性的經濟效益。WEKApod Nitro 透過升級硬件將效能密度提升一倍,協助企業加速 AI 高效能運算 (HPC) 創新、最大化 GPU 使用率,並服務更多客戶。其更高密度的設計,也使其成為大型物件儲存庫與 AI 數據湖的理想選擇,滿足這些需要毫不妥協的效能需求。

WEKA 推出新一代 WEKApod 設備,重新定義人工智能儲存經濟效益

WEKA 推出新一代 WEKApod 設備,重新定義人工智能儲存經濟效益

WEKApod 設備是部署與擴展 NeuralMesh™ by WEKA 技術最簡便、最快速的方式。作為全球唯一專為加速大規模 AI 而打造的儲存系統,NeuralMesh™ 具備獨特優勢。WekaPod 提供 NeuralMesh 軟件定義的靈活性,具備即用型預驗證配置,並配備大幅優化的設定工具,提供即插即用的使用體驗。機構可以從八部伺服器起步,隨部署規模擴展至數百部,在免除複雜整合作業的同時,完整運用 NeuralMesh 企業級功能集——涵蓋分散式中保護、即時快照、多協定接達、自動分層儲存、加密科技及混合雲端能力。

基礎架構效率危機
投資 AI 基礎設施的機構正面臨日益增大的壓力,必須證明投資回報率:寶貴的 GPU 資源閒置未充分利用,訓練週期延長了項目時程,推論成本吞噬利潤空間,而隨著數據量增長,雲端帳單更呈螺旋式上升。傳統儲存系統迫使人們做出不可能的抉擇:極致效能與可控成本,兩者永遠無法兼得。同時,數據中心限制(機架空間、電源預算和冷卻容量有限)意味著每個機架單元都必須提供更多功能,否則基礎架構成本無法控制。

新一代 WEKApod 系列產品正面對這些商業挑戰,提供直接解決方案。WekaPod Prime 消除了效能與成本之間的強制性差價,通過智能放置,根據工作負載特徵自動優化放置的智能資料,從而確保寫入保持完整效能,同時實現突破性的經濟效能。

如今 AI 建構商和雲端供應商可消除性能成本的取捨困境

WEKApod Prime:採用獨特的混合快閃科技方案,智能整合 TLC 與 eTLC 快閃記憶體,支援單一配置:1U 機架可容納多達 20 組驅動器,2U 機架則可擴充至 40 組驅動器。有別於傳統分層儲存方案所帶來的快取層級化、跨層級資料移動及寫入效能損失等問題,WEKApod 的 AlloyFlash 能在所有操作中提供穩定效能——包含無節流限制的完整寫入效能——同時實現突破性的經濟效益。絕不妥協、無寫入效能損失、無需快取層級。WEKApod Prime 已被 Danish Centre for AI Innovation (DCAI) 等頂尖 AI 雲端先驅機構採用。

結果是出色的密度,可直接解決數據中心資源限制:相較於前代產品,容量密度提升 4.6 倍,每機架單元寫入 IOPS 效能提升5倍,功率密度提升 4 倍(達到每千瓦 23,000 IOPS 或每千瓦 1.6 PB),每 TB 功耗降低 68%,同時維持 AI 工作負載所需的極致效能。對於訓練和檢查點等寫入密集的 AI 工作負載,這意味著存儲保持速度,而且不會造成效能損失:在重要作業期間閒置昂貴的 GPU。

WEKApod Nitro:專為運行數百至數千顆GPU的人工智慧工廠打造,透過升級硬件(包括 NVIDIA ConnectX-8 SuperNIC,實現兩倍效能提升與 60% 的性價比優勢,在緊湊的 1U 機箱內實現 800 Gb/s 吞吐量與 20 組 TLC 硬碟配置。作為經 NVIDIA DGX SuperPODNVIDIA Cloud Partner (NCP) 認證的一站式全包解決方案,兩種 WEKApod 配置皆能節省數星期的整合工作,讓企業得以在數日內(而非數月)將客戶服務推向市場,同時確保儲存基礎架構能與新一代加速器同步發展。

跨 AI 部署的可衡量業務影響

  • 對於 AI 雲端供應商和新雲端: 使用現有基礎架構,同時維持保證性能 SLA 的同時,為更多客戶提供利潤。價格效能比提升 65% 直接轉化為 GPU 即服務解決方案的利潤率增長。更快的部署時間,意味著新客戶能更快實現收益。
  • 對於部署 AI 工廠的企業: 透過免維護解決方案,在數日而非數月內部署 AI 計劃,消除複雜的整合工作,讓 IT 團隊無需專業技術即可實現企業級儲存效能。藉由提升密度與效能,最高可降低 68% 的耗電量,同時擴展 AI 能力時無需成比例增加資料中心佔地面積、電力或冷卻需求——從啟用首日起即創造可量化的基礎設施投資報酬率。
  • 對於 AI 建構者和研究人員: GPU 使用率超過 90%,加速模型開發。縮短訓練時間,以加速迭代週期並獲得競爭優勢。降低推論成本,使新的 AI 應用程式更加經濟實惠。從只需八部伺服器起步,隨需求增長擴展至數百部,並預設包括完整的 NeuralMesh 企業級功能。

AI 基礎設施供應商已從這些創新中獲得直接的商業效益:

「空間和電力是數據中心創新的新界限。WekaPod 卓越的存儲效能密度,使我們能夠在最佳化的足跡內提供超擴展級別的資料輸送量和效率,從而釋放每千瓦和平方米更多 AI 能力,」Danish Centre for AI Innovation (DCAI) 行政總裁 Nadia Carlsten 表示:「這種效率直接提高經濟性,並加速我們將 AI 創新帶給客戶的方式。」

「AI 投資必須證明投資報酬率。WEKApod Prime 在不犧牲速度的前提下,提供高出 65% 的性價比;而 WEKApod Nitro 則將效能提升一倍,以最大化 GPU 使用率。結果是:模型開發速度更快、推論輸送量更高,以及更好的運算投資回報,從而直接影響盈利能力和上市時間。」WEKA 產品總監 Ajay Singh 表示。

NVIDIA 網路資深副總裁 Kevin Deierling 表示:「網路對 AI 基礎設施至關重要,能夠將 AI 的運算與儲存能力轉化為思考平台,得以大規模生成並交付數位智能的標記。憑藉 NVIDIA Spectrum-X 以太網與 NVIDIA ConnectX-8 網路科技作為 WEKApod 的基礎架構,WEKA 正協助企業消除數據瓶頸——此舉對於優化 AI 效能至關重要。」

推出安排

新一代 WekaPod 電器現已推出。

WEKA 簡介

WEKA 憑藉其智能、適應性網狀儲存系統 WEKA® NeuralMesh™,正在變革機構建立、運行和擴展 AI 工作流程的方式。傳統的數據基礎設施會隨著工作負載擴展而變得更慢、更脆弱,與此不同,NeuralMesh 會隨著規模擴展而變得更快、更強、更高效,動態適應 AI 環境,為企業級 AI 和代理式 AI 創新提供靈活的基礎。NeuralMesh 深受 30% 的《財富》50 強企業信賴,幫助領先企業、AI 雲端服務供應商和 AI 開發者優化 GPU、加速擴展 AI 並降低創新成本。如欲了解更多,請瀏覽 或追蹤我們的 LinkedIn 和 X。

WEKA 和 W 標誌乃 WekaIO, Inc. 的註冊商標,而此處其他商品名稱可能是其各自擁有人的商標。

查看原始文章

蒙納擔任全球字體設計伙伴 參與「設計營商周(BODW)2025」

PR Newswire 美通社

中通快遞發佈2025年第三季度未經審計財務業績

PR Newswire 美通社

菲律賓頂級金融科技平台GCash為數百萬用戶解鎖Google Pay功能

PR Newswire 美通社
查看更多
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...
Loading...