金磊 一水 發(fā)自 凹非寺,量子位 | 公眾號 QbitAI
皮衣老黃,帶著最強AI芯片GB300閃亮登場“AI超級碗”GTC,燃爆全場!
性能方面,和去年發(fā)布的GB200相比,推理性能是其1.5倍。
據(jù)悉,GB300將在今年的下半年出貨。
除此之外,老黃還預覽(2026年下半年發(fā)貨)了英偉達下一代AI超級芯片,名字大變樣——Vera Rubin。
其實它的命名規(guī)則和Grace Blackwell(GB)類似:Grace是CPU,Blackwell是GPU。
而Vera Rubin中的Vera是CPU,Rubin是GPU。根據(jù)老黃的說法:幾乎所有細節(jié)都是新的。
從預覽的性能來看,Vera Rubin整體性能更是GB300的3.3倍。更具體一些:
Vera:CPU的內(nèi)存是Grace的4.2倍,內(nèi)存帶寬是Grace的2.4倍。
Rubin:將配備288GB的HBM4。
在Vera Rubin之后的下一代GPU(2027年下半年),英偉達會將其命名為Rubin Ultra,性能直接拉到GB300的14倍。
更多的具體性能對比,是這樣的:
性能上的提升,也正應了老黃在現(xiàn)場說的那句話:大規(guī)模推理是一種極限計算。
不僅如此,就連Rubin之后的下一代GPU,老黃也給亮出來了——將以Feynman來命名。
而縱觀整場GTC,我們可以輕松提煉老黃提及最多的幾個關(guān)鍵詞:tokens、推理和Agentic AI。
但除此之外,還有一個比較有意思的關(guān)鍵詞——DeepSeek。
英偉達官方博客稱:實現(xiàn)了DeepSeek-R1推理性能世界紀錄。
每個用戶每秒可處理超過250個token;實現(xiàn)每秒超過30000個token的最大吞吐量。
但這項紀錄采用的是B200,英偉達表示隨著Blackwell Ultra等新GPU的出現(xiàn),紀錄還將繼續(xù)被打破。
而老黃在現(xiàn)場體現(xiàn)傳統(tǒng)LLM和推理LLM的區(qū)別時,也是拿著DeepSeek-R1來舉例:
嗯,微妙,著實有點微妙。
那么除了一系列新GPU之外,還有什么?我們繼續(xù)往下看。
推出兩款個人AI超級計算機
首先,第一款個人AI超級計算機,叫做DGX Spark。
它就是老黃在今年1月份CES中發(fā)布的那個全球最小的個人AI超級計算機Project Digits,這次取了個正式的名字。
DGX Spark售價3000美元(約21685元),大小和Mac Mini相當。
它采用的是英偉達GB10芯片,能夠提供每秒1000萬億次的AI運算,用于微調(diào)和推理最新AI模型。
其中,GB10采用了NVLink-C2C互連技術(shù),提供CPU+ gpu的相干內(nèi)存模型,帶寬是第五代PCIe的5倍。
值得一提的是,英偉達官網(wǎng)已經(jīng)開發(fā)預定了哦~
至于第二款個人AI超級電腦,則是DGX Station。
DGX Station所采用的,正是今天推出的GB300,也是首個采用這款芯片的AI電腦。
其性能如下:
擁有784GB的相干內(nèi)存空間
擁有英偉達的ConnectX-8超級網(wǎng)卡,支持高達800Gb/s的網(wǎng)絡速度
擁有Nvidia的CUDA-X AI平臺,可訪問NIM微服務和AI Enterprise
用老黃的話來說就是:
這就是PC應該有的樣子。
至于上市趕時間,則是將于今年晚些時候從華碩、BOXX、戴爾、惠普、Lambda和美超微等廠商處推出。
而根據(jù)英偉達官方的介紹,這兩款個人AI超級計算機,是面向研究人員、數(shù)據(jù)科學家、AI開發(fā)者和學生設計的。
除此之外,老黃在這屆GTC上還涉足了以太網(wǎng),推出全球首個面向AI的以太網(wǎng)網(wǎng)絡平臺——Spectrum-X。
它由英偉達的Spectrum-4以太網(wǎng)交換機和BlueField-3 SuperNIC共同發(fā)力,能為AI、機器學習和自然語言處理等提供高性能支持。
相比傳統(tǒng)以太網(wǎng),Spectrum-X可將AI網(wǎng)絡性能提升1.6倍,提高AI云的電力效率。
以及還包括基于硅光學的Spectrum-X Photonics和Quantum-X Photonics網(wǎng)絡交換平臺,用于使用硅光學的超大規(guī)模數(shù)據(jù)中心。
新的網(wǎng)絡交換平臺將端口數(shù)據(jù)傳輸速度提升至1.6Tb/s,總傳輸速度達到400Tb/s,使數(shù)百萬個GPU能夠無縫協(xié)同工作。
還開源了一系列軟件
其中最重磅的,當屬發(fā)布NVIDIA Dyamo,一個用于加速AI模型推理的分布式推理服務庫。
老黃將其稱為“AI工廠的操作系統(tǒng)”,核心目標在于提高推理性能的同時降低Test-Time算力消耗。
按照英偉達的說法,在NVIDIA Blackwell上使用Dynamo優(yōu)化推理,能讓DeepSeek-R1的吞吐量提升30倍。
至于背后原因,主要在于Dynamo可以通過動態(tài)調(diào)整GPU資源應對請求波動,并優(yōu)化數(shù)據(jù)卸載到成本更低的存儲設備,從而降低推理成本并提高效率。
目前Dynamo已完全開源,支持PyTorch、SGLang、NVIDIA TensorRTyTM以及vLLM,在GitHub獲取后即可將推理工作分配到多達1000個NVIDIA GPU芯片。
此外,英偉達還宣布開源新的AI推理模型——Llama Nemotron,該系列模型也曾出現(xiàn)在今年1月的CES上。
據(jù)介紹,Llama Nemotron基于開源Llama基礎(chǔ)模型構(gòu)建,采用英偉達最新技術(shù)和高質(zhì)量數(shù)據(jù)集進行剪枝和訓練,優(yōu)化了計算效率和準確性。
為了直觀展示其性能,老黃在大會上將它和Llama 3.3(70B)以及DeepSeek R1 Llama (70B)進行了對比,下圖展示了它們在Agentic任務上的平均準確率(橫軸)與每秒處理的tokens數(shù)量(縱軸):
可以看出,新的推理模型以49B參數(shù)量性能遠超另外兩個模型,在Agentic任務中表現(xiàn)更為突出。
目前Nano和Super模型可在NIM微服務中獲取,Ultra模型即將推出。
與此同時,英偉達在自動駕駛和具身智能方面也有新進展。
大會開始不久,老黃即宣布英偉達與通用汽車達成合作:通用將在自動駕駛上使用英偉達的AI技術(shù)。
在這之后,英偉達正式發(fā)布了端到端自動駕駛汽車全棧綜合安全系統(tǒng)NVIDIA Halos。
這個系統(tǒng)主要將NVIDIA的汽車硬件和軟件解決方案與尖端AI研究相結(jié)合,以確保從云端到車輛的自動駕駛汽車(AVs)的安全開發(fā)。
介紹過程中,老黃多次提到了“安全性”這個詞,并公開聲稱:
我們是世界上第一家對每一行代碼進行安全評估的公司
落實到具體上,Halos系統(tǒng)主要在三個互補的層面提供支持:
技術(shù)層面:包括平臺安全、算法安全和生態(tài)系統(tǒng)安全;
開發(fā)層面:涵蓋設計階段、部署階段和驗證階段的安全防護措施;
計算層面:從AI訓練到部署的全過程,利用三種強大的計算平臺,分別是NVIDIA DGX用于AI訓練,NVIDIA Omniverse和NVIDIA Cosmos在NVIDIA OVX上運行用于模擬,以及NVIDIA DRIVE AGX用于部署。
到了大會的最后階段,老黃宣布英偉達與Google DeepMind和Disney Research正合作開發(fā)下一代開源仿真物理模型Newton。
據(jù)英偉達介紹,Newton基于NVIDIA Warp構(gòu)建,支持與MuJoCo Playground或NVIDIA Isaac Lab等學習框架兼容。
它主要用于機器人模擬訓練,使用之后可以幫助研究人員安全、加速且低成本地訓練/開發(fā)/測試/驗證機器人控制算法和原型設計。
同時,英偉達還同步推出了?Isaac GR00T N1,號稱全球首個開源的、完全可定制的人形機器人基礎(chǔ)模型。
它采用雙系統(tǒng)架構(gòu),靈感來自人類思考模式,包括快速思考的動作模型(System 1)和慢速思考的決策模型(System 2)。
在大會演示中,GR00T N1能夠輕松泛化常見的任務,如抓取、移動物體以及在雙臂之間轉(zhuǎn)移物品,或執(zhí)行需要長時間推理的復雜任務。
最后的最后,老黃在謝幕之前還成功“召喚”出了配有GR00T N1模型的機器人——Blue(星球大戰(zhàn)機器人)。
雖然過程中有些不聽話的“叛逆行為”,但好在還是給了點老黃面子(doge)。
One More Thing
今年的GTC大會,除了老黃的主題演講,還有一件事最值得期待:
那就是今年首次設立的“量子日”活動,屆時老黃將與D-Wave Quantum和Rigetti Computing等十余家量子計算行業(yè)領(lǐng)軍企業(yè)的高管同臺,討論量子計算的技術(shù)現(xiàn)狀、潛力以及未來發(fā)展方向。
要知道今年年初時,老黃一句“量子計算還需20年才實用”,相關(guān)概念股曾應聲腰斬。
所以大家這次都在觀望,老黃是否又會“語出驚人”,相關(guān)探討是否會對量子計算產(chǎn)業(yè)產(chǎn)生更大影響。
咱們繼續(xù)坐等答案揭曉~
老黃演講回看地址:https://www.youtube.com/watch?v=_waPvOwL9Z8