NVIDIA 今日宣布推出第四代 NVIDIA? DGX? 系統(tǒng),這是全球首個基于全新 NVIDIA H100 Tensor Core GPU 的 AI 平臺。
DGX H100 系統(tǒng)能夠滿足大型語言模型、推薦系統(tǒng)、醫(yī)療健康研究和氣候科學的大規(guī)模計算需求。每個 DGX H100 系統(tǒng)配備八塊 NVIDIA H100 GPU,并由 NVIDIA NVLink? 連接,能夠在新的 FP8 精度下達到 32 Petaflop 的 AI 性能,比上一代系統(tǒng)性能高 6 倍。
?
DGX H100 系統(tǒng)是新一代 NVIDIA DGX POD? 和 NVIDIA DGX SuperPOD? AI 基礎設施平臺的構建模塊。新的 DGX SuperPOD 架構采用了一個全新的 NVIDIA NVLink Switch 系統(tǒng),通過這一系統(tǒng)最多可連接 32 個節(jié)點,總計 256 塊 H100 GPU。
?
新一代 DGX SuperPOD 提供 1 Exaflops 的 FP8 AI 性能,比上一代產品性能高 6 倍,能夠運行具有數萬億參數的龐大 LLM 工作負載,從而推動 AI 的前沿發(fā)展。
?
NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛表示:“AI 已經從根本上改變了軟件的功能和產出方式。利用 AI 來革新自身所處行業(yè)的公司也意識到了自身 AI 基礎設施的重要性。NVIDIA 全新 DGX H100 系統(tǒng)將賦能企業(yè) AI 工廠,助力其從數據中提煉出我們最具價值的資源,即‘智能’。"
?
宣布推出全球運行速度最快的 AI 超級計算機 —— NVIDIA Eos
NVIDIA 將率先使用突破性的新型 AI 架構來構建 DGX SuperPOD,賦能 NVIDIA 研究人員的研究工作,推動氣候科學、數字生物學和 AI 未來的發(fā)展。
?
“Eos”超級計算機將于今年晚些時候開始運行,共配備 576 臺 DGX H100 系統(tǒng),共計 4608 塊 DGX H100 GPU,有望成為全球運行速度最快的 AI 系統(tǒng)。
?
NVIDIA Eos 預計將提供 18.4 Exaflops 的 AI 計算性能,比日本的 Fugaku 超級計算機快 4 倍,后者是目前運行速度最快的系統(tǒng)。在傳統(tǒng)的科學計算方面,Eos 預計將提供 275 Petaflop 的性能。
?
對于 NVIDIA 及其 OEM 和云計算合作伙伴,Eos 將成為其先進 AI 基礎設施的藍圖。
?
借助 DGX H100 系統(tǒng)、DGX POD 和 DGX SuperPOD,輕松擴展企業(yè)級 AI
在企業(yè)從初始項目發(fā)展到廣泛部署的過程中,DGX H100 系統(tǒng)能夠實現輕松擴展,滿足企業(yè)的 AI 需求。
?
除了八塊 H100 GPU 以及總計 6400 億個晶體管之外,每個 DGX H100 系統(tǒng)還包含兩個 ?NVIDIA BlueField?-3 DPU,以用于卸載、加速和隔離高級網絡、存儲及安全服務。
?
八個 NVIDIA ConnectX?-7 Quantum-2 InfiniBand 網卡能夠提供 400 GB/s 的吞吐量,可用于連接計算和存儲,這一速度比上一代系統(tǒng)提升了一倍。第四代 NVLink 與 NVSwitch? 相結合,能夠在每個 DGX H100 系統(tǒng)中的各個 GPU 之間實現 900 GB/s 的連接速度,是上一代系統(tǒng)的 1.5 倍。
?
DGX H100 系統(tǒng)使用雙 x86 CPU,能夠與 NVIDIA 網絡和 NVIDIA 合作伙伴提供的存儲設備相結合,使 DGX POD 能夠靈活用于各種規(guī)模的 AI 計算。
?
借助 DGX H100 系統(tǒng),DGX SuperPOD 可成為具有可擴展性的卓越的企業(yè)級 AI 中心。DGX SuperPOD 中的 DGX H100 節(jié)點和 H100 GPU 由 NVLink Switch 系統(tǒng)和 NVIDIA Quantum-2 InfiniBand 連接,帶寬速度可達 70 TB/s,比上一代產品高 11 倍。NVIDIA 合作伙伴提供的存儲設備將經過測試和認證,以滿足 DGX SuperPOD AI 計算的需求。
多個 DGX SuperPOD 單元可組合使用,為汽車、醫(yī)療健康、制造、通信、零售等行業(yè)提供開發(fā)大型模型所需的 AI 性能。
?
NVIDIA DGX Foundry 托管的開發(fā)解決方案正在全球擴展,使 DGX SuperPOD 客戶能夠在他們的系統(tǒng)安裝期間,立即獲取先進的計算基礎設施。北美、歐洲和亞洲的新增地點支持遠程訪問 DGX SuperPOD(或其中部分)。
?
DGX Foundry 中包含 NVIDIA Base Command? 軟件,后者能夠使客戶基于 DGX SuperPOD 基礎設施,輕松管理端到端 AI 開發(fā)生命周期。
?
通過在全球各地的 Equinix IBX? (International Business Exchange? ) 數據中心托管的 NVIDIA LaunchPad 實驗室,符合資格的企業(yè)可以免費體驗 NVIDIA Base Command 和 DGX 系統(tǒng)。
企業(yè)級 AI 軟件 MLOps 助力客戶提高 AI 采用率
為支持正在進行 AI 開發(fā)的 DGX 客戶,NVIDIA DGX-Ready 軟件合作伙伴(包括 Domino Data Lab、Run:ai 和 Weights & Biases 等)提供的 MLOps 解決方案將加入“NVIDIA AI 加速”計劃。
參與活動的合作伙伴提供的 MLOps 應用程序將經過驗證,為 DGX 客戶提供企業(yè)級工作流以及集群管理、調度與編排解決方案。
此外,NVIDIA DGX 系統(tǒng)現在包含 NVIDIA AI Enterprise 軟件套件,該套件新增了對裸金屬基礎設施的支持。DGX 客戶可使用軟件套件中包含的預訓練 NVIDIA AI 平臺模型、工具包和框架(例如 NVIDIA RAPIDS?、NVIDIA TAO 工具套件、NVIDIA Triton 推理服務器? 等)來加快工作速度。
DGX-Ready 托管服務計劃能夠簡化 AI 部署
隨著企業(yè) AI 采用率不斷提高,客戶正在尋求更多選擇,以便添加實現業(yè)務轉型所需的基礎設施。NVIDIA 推出新的 DGX-Ready 托管服務計劃,能夠為希望與服務提供商開展合作來監(jiān)督其基礎設施的客戶提供支持。
德勤是率先與 NVIDIA 合作開展此計劃的全球提供商,并將經過認證,可與區(qū)域供應商(CGit、ePlus、Insight Enterprises 和 PTC System)一起,為歐洲、北美和亞洲的客戶提供支持。
德勤咨詢首席合伙人兼 AI 與數據運營服務負責人 Jim Rowan 表示:“只有企業(yè)能夠將技術集成到運營中時,AI 才可能助推業(yè)務實現突破。借助新的 DGX-Ready 托管服務計劃,客戶可以輕松采用先進的 AI 技術以及由德勤全球專家管理的 NVIDIA DGX 系統(tǒng)和軟件。”
DGX-Ready 生命周期管理計劃助力實現輕松升級
現在,客戶可以通過新的 DGX-Ready 生命周期管理計劃,借助新的 NVIDIA DGX 平臺升級其現有 DGX 系統(tǒng)。
參加 DGX-Ready 生命周期管理計劃的 NVIDIA 渠道合作伙伴將可以更新上一代 DGX 系統(tǒng),以供新客戶進行購買,并擴展用于 AI 基礎設施的全球通用系統(tǒng)的獲取途徑。
供貨信息
從第三季度起,NVIDIA 的全球合作伙伴將開始供應 NVIDIA DGX H100 系統(tǒng)、DGX POD 和 DGX SuperPOD。
客戶還可以選擇在由 Cyxtera、Digital Realty 和 Equinix IBX 數據中心 等 NVIDIA DGX-Ready 數據中心合作伙伴運營的托管設施中部署 DGX 系統(tǒng)。
觀看 NVIDIA 創(chuàng)始人兼首席執(zhí)行官黃仁勛的 GTC 2022 主題演講,進一步了解NVIDIA DGX 系統(tǒng)。免費注冊 GTC 2022,與NVIDIA和行業(yè)領導者共襄盛會。