剛剛,英偉達(dá)CEO黃仁勛穿著鱷魚皮夾克,在全球最大消費電子展CES 2026上發(fā)布AI新品。
這是五年來,英偉達(dá)首次來到CES卻沒有發(fā)游戲顯卡,態(tài)度很明確:
全力搞AI。
全力搞出來的結(jié)果也讓圍觀群眾直呼:競爭對手如何追上英偉達(dá)?
下一代Rubin架構(gòu)GPU推理、訓(xùn)練性能分別是Blackwell GB200的5倍和3.5倍(NVFP4數(shù)據(jù)格式)。
除此之外,老黃還帶來了五大領(lǐng)域的全新發(fā)布,包括:
面向Agentic AI的NVIDIA Nemotron模型家族面向物理AI的NVIDIA Cosmos平臺面向自動駕駛開發(fā)的全新NVIDIA Alpamayo模型家族面向機(jī)器人領(lǐng)域的NVIDIA Isaac GR00T面向生物醫(yī)學(xué)的NVIDIA Clara同時,英偉達(dá)宣布持續(xù)向社區(qū)開源訓(xùn)練框架以及多模態(tài)數(shù)據(jù)集。其中數(shù)據(jù)集包括10萬億語言訓(xùn)練token、50萬條機(jī)器人軌跡數(shù)據(jù)、45.5萬個蛋白質(zhì)結(jié)構(gòu)、100TB車輛傳感器數(shù)據(jù)。
這次的核心主題,直指物理AI。
用網(wǎng)友的話來說:
這是英偉達(dá)將護(hù)城河從芯片層進(jìn)一步拓展到全棧平臺層(模型+數(shù)據(jù)+工具)的體現(xiàn),通過這種方式可以持續(xù)拉動更多GPU與基礎(chǔ)設(shè)施投入,并顯著增強(qiáng)用戶與生態(tài)的鎖定。
值得一提的是,咱國產(chǎn)開源模型又雙叒被cue到了。
老黃在演講開篇便提及了DeepSeek,Kimi K2、Qwen也出現(xiàn)在PPT展示頁上。
正式推出Vera Rubin NVL72老黃正式推出英偉達(dá)下一代AI數(shù)據(jù)中心的機(jī)柜架構(gòu)Vera Rubin,披露架構(gòu)細(xì)節(jié)。
六大核心組件共同構(gòu)成VeraRubin NVL72機(jī)架:
Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4數(shù)據(jù)處理單元(DPU)、Spectrum-6 Ethernet switch。
在NVFP4數(shù)據(jù)類型下,Rubin GPU推理性能可達(dá)50 PFLOPS,是Blackwell GB200的5倍;NVFP4訓(xùn)練性能為35 PFLOPS,是Blackwell的3.5 倍。
為支撐這些計算能力,每顆Rubin GPU封裝了8組HBM4內(nèi)存,提供288GB容量和22 TB/s的帶寬。
隨著主流大模型轉(zhuǎn)向MoE架構(gòu),模型得以相對高效地進(jìn)行規(guī)模擴(kuò)展。然而,這些專家模塊之間的通信,對節(jié)點間帶寬提出了極高要求。
Vera Rubin引入了用于規(guī)模內(nèi)擴(kuò)展網(wǎng)絡(luò)的NVLink 6。
它將單GPU的互連帶寬提升至3.6 TB/s(雙向)。每顆NVLink 6交換芯片提供28 TB/s的帶寬,而每個Vera Rubin NVL72機(jī)架配備9顆這樣的交換芯片,總規(guī)模內(nèi)帶寬達(dá)到260 TB/s。
NVIDIAVera CPU集成了88個定制的Olympus Arm核心,采用英偉達(dá)稱為“spatial multi-threading”設(shè)計,最多可同時運行176個線程。
用于將Vera CPU與Rubin GPU進(jìn)行一致性連接的NVLink C2C互連,其帶寬提升了一倍,達(dá)到1.8 TB/s。每顆Vera CPU可尋址最多1.5 TB的SOCAMM LPDDR5X內(nèi)存,內(nèi)存帶寬最高可達(dá)1.2 TB/s。
為將Vera Rubin NVL72機(jī)架擴(kuò)展為每組8個機(jī)架的DGX SuperPod,英偉達(dá)推出了一對采用共封裝光學(xué)(CPO)的Spectrum-X以太網(wǎng)交換機(jī),均基于Spectrum-6芯片構(gòu)建。
每顆Spectrum-6芯片提供102.4 Tb/s的帶寬,英偉達(dá)基于該芯片推出了兩款交換機(jī)。
SN688提供409.6 Tb/s的總帶寬,支持512個800G以太網(wǎng)端口或2048個200G端口。
SN6810則提供102.4 Tb/s的帶寬,可配置為128 個800G或512個200G以太網(wǎng)端口。
這兩款交換機(jī)均采用液冷設(shè)計,英偉達(dá)表示,與不具備硅光子技術(shù)的硬件相比,它們在能效、可靠性和運行時間方面表現(xiàn)更優(yōu)。
隨著上下文窗口擴(kuò)展到數(shù)百萬token,英偉達(dá)還指出,存儲AI模型交互歷史的鍵值緩存(KV cache)相關(guān)操作,已成為推理性能的瓶頸。
此前黃仁勛曾表態(tài):沒有HBM,就沒有AI超算。
為突破這一限制,英偉達(dá)推出新硬件BlueField-4 DPU,構(gòu)建了一個新的內(nèi)存層級,稱為推理上下文內(nèi)存存儲平臺(Inference Context Memory Storage Platform)。
英偉達(dá)表示,這一存儲層旨在實現(xiàn)鍵值緩存數(shù)據(jù)在AI基礎(chǔ)設(shè)施中的高效共享與復(fù)用,從而提升系統(tǒng)響應(yīng)速度和吞吐能力,并實現(xiàn)Agentic AI架構(gòu)可預(yù)測、能效友好的規(guī)模擴(kuò)展。
這是Vera Rubin首次將英偉達(dá)的可信執(zhí)行環(huán)境擴(kuò)展至整個機(jī)架級別。
整體來看,每個Vera Rubin NVL72機(jī)架可提供:
3.6exaFLOPS的NVFP4推理性能2.5exaFLOPS的NVFP4訓(xùn)練性能54 TB的LPDDR5X內(nèi)存(連接至VeraCPU)20.7 TB的HBM4內(nèi)存,帶寬達(dá)1.6 PB/s為保障機(jī)架系統(tǒng)的持續(xù)高效運行,英偉達(dá)在機(jī)架層面引入了多項改進(jìn),包括無纜化模塊托盤設(shè)計,使組件更換速度顯著快于此前的NVL72機(jī)架;增強(qiáng)的NVLink彈性能力,實現(xiàn)零停機(jī)維護(hù);以及第二代RAS引擎,可在不中斷服務(wù)的情況下完成健康檢測。
另外,英偉達(dá)表示,與Blackwell相比,Vera Rubin在訓(xùn)練MoE模型時所需的GPU數(shù)量僅為四分之一;在MoE推理場景下,其每token成本最高可降低10倍。反過來看,這也意味著Rubin能在相同機(jī)架空間內(nèi),大幅提升訓(xùn)練吞吐量,并生成遠(yuǎn)多于以往的token數(shù)量。
據(jù)介紹,目前用于構(gòu)建Vera Rubin NVL72所需的六類芯片已全部從晶圓廠交付,英偉達(dá)預(yù)計將在2026年下半年啟動Vera Rubin NVL72的規(guī)?;慨a(chǎn)。
自動駕駛?cè)麻_源模型系列發(fā)布再來看英偉達(dá)重磅推出的全新開源模型系列——Alpamayo,面向安全推理的自動駕駛。
全球首款開源、大規(guī)模的自動駕駛視覺-語言-行動(VLA)推理模型Alpamayo 1,參數(shù)100億。
它能夠讓自動駕駛車輛理解周圍環(huán)境,并對自身的決策行為做出解釋。
模型接收車輛自身的運動歷史數(shù)據(jù)、多攝像頭采集的實時視頻畫面、用戶指令三類輸入信息,然后進(jìn)行推理,之后生成具體的駕駛決策、因果推理結(jié)果、規(guī)劃出的行駛軌跡。
配套推出的還有一款開源仿真框架——AlpacaSim。
它支持在各種不同的環(huán)境與邊緣場景中,對基于推理的自動駕駛模型進(jìn)行閉環(huán)訓(xùn)練與評估。
英偉達(dá)還發(fā)布了一個包含1700小時駕駛數(shù)據(jù)的開源數(shù)據(jù)集。這些數(shù)據(jù)采集于全球最廣泛的地理區(qū)域與環(huán)境條件下,涵蓋了推進(jìn)推理架構(gòu)發(fā)展所必需的罕見及復(fù)雜真實邊緣場景。
落地方面,據(jù)介紹,Alpamayo將率先搭載于2025年第二季度歐洲上市的梅賽德斯-奔馳CLA車型,后續(xù)將通過OTA升級逐步推送高速公路脫手駕駛、城市全場景自動駕駛、端到端自動泊車等功能,并計劃登陸美國市場。
英偉達(dá)基于自身技術(shù)構(gòu)建的全球L4級自動駕駛與Robotaxi生態(tài)系統(tǒng)全景也亮相了,通過連接軟件開發(fā)商、整車廠/出行平臺、硬件供應(yīng)商,覆蓋全產(chǎn)業(yè)鏈。
Nemotron再推專項模型NVIDIA Nemotron在AI智能體領(lǐng)域的新拓展,核心是在已發(fā)布的Nemotron 3開放模型與數(shù)據(jù)基礎(chǔ)上,進(jìn)一步推出針對語音、RAG以及安全三大場景的專項模型。
其中,Nemotron Speech包含新的自動語音識別(ASR)模型,不僅語音識別性能強(qiáng),而且能支持實時字幕生成這樣的實時低延遲場景,速度比同類模型快10倍。
英偉達(dá)表示,目前博世已采用該模型實現(xiàn)司機(jī)與車輛之間的交互。
Nemotron RAG則搭載新的視覺語言模型,能精準(zhǔn)處理多語言、多模態(tài)數(shù)據(jù),有效提升文檔搜索效率。
Nemotron Safety系列模型專注于增強(qiáng)AI應(yīng)用的安全性與可信度,具體包括支持更多語言的Llama Nemotron內(nèi)容安全模型,以及高精度檢測敏感數(shù)據(jù)的Nemotron PII模型。
機(jī)器人推理大腦Cosmos升級活動現(xiàn)場,老黃宣布英偉達(dá)為機(jī)器人推出的懂推理的“大腦”Cosmos再度升級。
Cosmos主要被用來生成符合現(xiàn)實世界物理規(guī)律的合成數(shù)據(jù),自發(fā)布以來,已被Figure、Agility Robotics、通用汽車等一眾知名機(jī)器人和自動駕駛公司采用。
這次全新發(fā)布了:
Cosmos Reason 2:一款全新的、排名領(lǐng)先的視覺-語言推理模型(VLM)。它能夠幫助機(jī)器人與AI智能體更精準(zhǔn)地感知、理解并與物理世界進(jìn)行交互。Cosmos Transfer 2.5與Cosmos Predict2.5:兩款領(lǐng)先的模型,可在各種不同的環(huán)境與條件下,生成大規(guī)模的合成視頻。英偉達(dá)還基于Cosmos模型,為各類物理AI應(yīng)用推出了專用的開源模型與參考藍(lán)圖:
Isaac GR00TN1.6:一款專為類人機(jī)器人打造的開源視覺-語言-行動(VLA)推理模型。它支持機(jī)器人的全身控制,并集成了英偉達(dá)Cosmos Reason模型,以實現(xiàn)更強(qiáng)大的推理能力與上下文理解能力。
NVIDIA AI Blueprint for Video Search and Summarization:作為英偉達(dá)Metropolis平臺的一部分,該藍(lán)圖提供了一套參考工作流,可用于構(gòu)建視覺AI智能體。這些智能體能夠分析大量的錄播及直播視頻,從而提升運營效率并保障公共安全。
據(jù)了解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord等企業(yè)正采用Cosmos Reason模型,開發(fā)面向交通與職場生產(chǎn)力提升的AI智能體。Franka Robotics、Humanoid和NEURA Robotics則利用Isaac GR00T模型,在機(jī)器人大規(guī)模量產(chǎn)前,對其全新行為進(jìn)行仿真、訓(xùn)練與驗證。
針對醫(yī)療健康與生命科學(xué)的AINVIDIA Clara是專門針對醫(yī)療健康與生命科學(xué)領(lǐng)域的AI技術(shù)工具。
核心目標(biāo)是降低行業(yè)成本、加速治療方案落地,打通數(shù)字科研與實際醫(yī)療應(yīng)用之間的壁壘。
該系列中的多款專項模型各有側(cè)重:
La-Proteina能設(shè)計原子級精度的大型蛋白質(zhì);ReaSyn v2在藥物發(fā)現(xiàn)階段就開始考慮“如何生產(chǎn)”的問題;KERMT可以預(yù)測潛在藥物進(jìn)入人體后的反應(yīng),提前排查安全問題;RNAPro用來預(yù)測RNA分子復(fù)雜的3D結(jié)構(gòu),推進(jìn)個性化醫(yī)療方案。模型之外,老黃表示英偉達(dá)還將為研究者提供含45.5萬個合成蛋白質(zhì)結(jié)構(gòu)的數(shù)據(jù)集。