西風(fēng) 聞樂(lè) 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
剛剛,英偉達(dá)CEO黃仁勛穿著鱷魚(yú)皮夾克,在全球最大消費(fèi)電子展CES 2026上發(fā)布AI新品。
這是五年來(lái),英偉達(dá)首次來(lái)到CES卻沒(méi)有發(fā)游戲顯卡,態(tài)度很明確:
全力搞AI。
![]()
全力搞出來(lái)的結(jié)果也讓圍觀群眾直呼:競(jìng)爭(zhēng)對(duì)手如何追上英偉達(dá)?
下一代Rubin架構(gòu)GPU推理、訓(xùn)練性能分別是Blackwell GB200的5倍和3.5倍(NVFP4數(shù)據(jù)格式)。
![]()
除此之外,老黃還帶來(lái)了五大領(lǐng)域的全新發(fā)布,包括:
- 面向Agentic AI的NVIDIA Nemotron模型家族
- 面向物理AI的NVIDIA Cosmos平臺(tái)
- 面向自動(dòng)駕駛開(kāi)發(fā)的全新NVIDIA Alpamayo模型家族
- 面向機(jī)器人領(lǐng)域的NVIDIA Isaac GR00T
- 面向生物醫(yī)學(xué)的NVIDIA Clara
同時(shí),英偉達(dá)宣布持續(xù)向社區(qū)開(kāi)源訓(xùn)練框架以及多模態(tài)數(shù)據(jù)集。其中數(shù)據(jù)集包括10萬(wàn)億語(yǔ)言訓(xùn)練token、50萬(wàn)條機(jī)器人軌跡數(shù)據(jù)、45.5萬(wàn)個(gè)蛋白質(zhì)結(jié)構(gòu)、100TB車(chē)輛傳感器數(shù)據(jù)。
這次的核心主題,直指物理AI
![]()
用網(wǎng)友的話來(lái)說(shuō):
- 這是英偉達(dá)將護(hù)城河從芯片層進(jìn)一步拓展到全棧平臺(tái)層(模型+數(shù)據(jù)+工具)的體現(xiàn),通過(guò)這種方式可以持續(xù)拉動(dòng)更多GPU與基礎(chǔ)設(shè)施投入,并顯著增強(qiáng)用戶與生態(tài)的鎖定。
![]()
值得一提的是,咱國(guó)產(chǎn)開(kāi)源模型又雙叒被cue到了。
老黃在演講開(kāi)篇便提及了DeepSeek,Kimi K2、Qwen也出現(xiàn)在PPT展示頁(yè)上。
![]()
正式推出Vera Rubin NVL72
老黃正式推出英偉達(dá)下一代AI數(shù)據(jù)中心的機(jī)柜架構(gòu)Vera Rubin,披露架構(gòu)細(xì)節(jié)。
六大核心組件共同構(gòu)成VeraRubin NVL72機(jī)架:
Vera CPU、Rubin GPU、NVLink 6 switch、ConnectX-9 SuperNIC、BlueField-4數(shù)據(jù)處理單元(DPU)、Spectrum-6 Ethernet switch。
![]()
在NVFP4數(shù)據(jù)類(lèi)型下,Rubin GPU推理性能可達(dá)50 PFLOPS,是Blackwell GB200的5倍;NVFP4訓(xùn)練性能為35 PFLOPS,是Blackwell的3.5 倍
為支撐這些計(jì)算能力,每顆Rubin GPU封裝了8組HBM4內(nèi)存,提供288GB容量和22 TB/s的帶寬。
隨著主流大模型轉(zhuǎn)向MoE架構(gòu),模型得以相對(duì)高效地進(jìn)行規(guī)模擴(kuò)展。然而,這些專(zhuān)家模塊之間的通信,對(duì)節(jié)點(diǎn)間帶寬提出了極高要求。
Vera Rubin引入了用于規(guī)模內(nèi)擴(kuò)展網(wǎng)絡(luò)的NVLink 6
它將單GPU的互連帶寬提升至3.6 TB/s(雙向)。每顆NVLink 6交換芯片提供28 TB/s的帶寬,而每個(gè)Vera Rubin NVL72機(jī)架配備9顆這樣的交換芯片,總規(guī)模內(nèi)帶寬達(dá)到260 TB/s。
NVIDIAVera CPU集成了88個(gè)定制的Olympus Arm核心,采用英偉達(dá)稱(chēng)為“spatial multi-threading”設(shè)計(jì),最多可同時(shí)運(yùn)行176個(gè)線程。
用于將Vera CPU與Rubin GPU進(jìn)行一致性連接的NVLink C2C互連,其帶寬提升了一倍,達(dá)到1.8 TB/s。每顆Vera CPU可尋址最多1.5 TB的SOCAMM LPDDR5X內(nèi)存,內(nèi)存帶寬最高可達(dá)1.2 TB/s。
![]()
為將Vera Rubin NVL72機(jī)架擴(kuò)展為每組8個(gè)機(jī)架的DGX SuperPod,英偉達(dá)推出了一對(duì)采用共封裝光學(xué)(CPO)的Spectrum-X以太網(wǎng)交換機(jī)均基于Spectrum-6芯片構(gòu)建
每顆Spectrum-6芯片提供102.4 Tb/s的帶寬,英偉達(dá)基于該芯片推出了兩款交換機(jī)。
SN688提供409.6 Tb/s的總帶寬,支持512個(gè)800G以太網(wǎng)端口或2048個(gè)200G端口。
SN6810則提供102.4 Tb/s的帶寬,可配置為128 個(gè)800G或512個(gè)200G以太網(wǎng)端口。
這兩款交換機(jī)均采用液冷設(shè)計(jì),英偉達(dá)表示,與不具備硅光子技術(shù)的硬件相比,它們?cè)谀苄А⒖煽啃院瓦\(yùn)行時(shí)間方面表現(xiàn)更優(yōu)。
隨著上下文窗口擴(kuò)展到數(shù)百萬(wàn)token,英偉達(dá)還指出,存儲(chǔ)AI模型交互歷史的鍵值緩存(KV cache)相關(guān)操作,已成為推理性能的瓶頸。
此前黃仁勛曾表態(tài):沒(méi)有HBM,就沒(méi)有AI超算
![]()
為突破這一限制,英偉達(dá)推出新硬件BlueField-4 DPU,構(gòu)建了一個(gè)新的內(nèi)存層級(jí),稱(chēng)為推理上下文內(nèi)存存儲(chǔ)平臺(tái)(Inference Context Memory Storage Platform)。
![]()
英偉達(dá)表示,這一存儲(chǔ)層旨在實(shí)現(xiàn)鍵值緩存數(shù)據(jù)在AI基礎(chǔ)設(shè)施中的高效共享與復(fù)用,從而提升系統(tǒng)響應(yīng)速度和吞吐能力,并實(shí)現(xiàn)Agentic AI架構(gòu)可預(yù)測(cè)、能效友好的規(guī)模擴(kuò)展。
這是Vera Rubin首次將英偉達(dá)的可信執(zhí)行環(huán)境擴(kuò)展至整個(gè)機(jī)架級(jí)別。
整體來(lái)看,每個(gè)Vera Rubin NVL72機(jī)架可提供:
- 3.6exaFLOPS的NVFP4推理性能
- 2.5exaFLOPS的NVFP4訓(xùn)練性能
- 54 TB的LPDDR5X內(nèi)存(連接至VeraCPU)
- 20.7 TB的HBM4內(nèi)存,帶寬達(dá)1.6 PB/s
為保障機(jī)架系統(tǒng)的持續(xù)高效運(yùn)行,英偉達(dá)在機(jī)架層面引入了多項(xiàng)改進(jìn),包括無(wú)纜化模塊托盤(pán)設(shè)計(jì),使組件更換速度顯著快于此前的NVL72機(jī)架;增強(qiáng)的NVLink彈性能力,實(shí)現(xiàn)零停機(jī)維護(hù);以及第二代RAS引擎,可在不中斷服務(wù)的情況下完成健康檢測(cè)。
另外,英偉達(dá)表示,與Blackwell相比,Vera Rubin在訓(xùn)練MoE模型時(shí)所需的GPU數(shù)量?jī)H為四分之一;在MoE推理場(chǎng)景下,其每token成本最高可降低10倍
反過(guò)來(lái)看,這也意味著Rubin能在相同機(jī)架空間內(nèi),大幅提升訓(xùn)練吞吐量,并生成遠(yuǎn)多于以往的token數(shù)量。
據(jù)介紹,目前用于構(gòu)建Vera Rubin NVL72所需的六類(lèi)芯片已全部從晶圓廠交付,英偉達(dá)預(yù)計(jì)將在2026年下半年啟動(dòng)Vera Rubin NVL72的規(guī)模化量產(chǎn)。
自動(dòng)駕駛?cè)麻_(kāi)源模型系列發(fā)布
再來(lái)看英偉達(dá)重磅推出的全新開(kāi)源模型系列——Alpamayo,面向安全推理的自動(dòng)駕駛。
![]()
全球首款開(kāi)源、大規(guī)模的自動(dòng)駕駛視覺(jué)-語(yǔ)言-行動(dòng)(VLA)推理模型Alpamayo 1,參數(shù)100億。
它能夠讓自動(dòng)駕駛車(chē)輛理解周?chē)h(huán)境,并對(duì)自身的決策行為做出解釋。
模型接收車(chē)輛自身的運(yùn)動(dòng)歷史數(shù)據(jù)、多攝像頭采集的實(shí)時(shí)視頻畫(huà)面、用戶指令三類(lèi)輸入信息,然后進(jìn)行推理,之后生成具體的駕駛決策、因果推理結(jié)果、規(guī)劃出的行駛軌跡。

配套推出的還有一款開(kāi)源仿真框架AlpacaSim
它支持在各種不同的環(huán)境與邊緣場(chǎng)景中,對(duì)基于推理的自動(dòng)駕駛模型進(jìn)行閉環(huán)訓(xùn)練與評(píng)估。
此外,英偉達(dá)還發(fā)布了一個(gè)包含1700小時(shí)駕駛數(shù)據(jù)的開(kāi)源數(shù)據(jù)集。這些數(shù)據(jù)采集于全球最廣泛的地理區(qū)域與環(huán)境條件下,涵蓋了推進(jìn)推理架構(gòu)發(fā)展所必需的罕見(jiàn)及復(fù)雜真實(shí)邊緣場(chǎng)景。
落地方面,據(jù)介紹,Alpamayo將率先搭載于2025年第二季度歐洲上市的梅賽德斯-奔馳CLA車(chē)型,后續(xù)將通過(guò)OTA升級(jí)逐步推送高速公路脫手駕駛、城市全場(chǎng)景自動(dòng)駕駛、端到端自動(dòng)泊車(chē)等功能,并計(jì)劃登陸美國(guó)市場(chǎng)。
![]()
英偉達(dá)基于自身技術(shù)構(gòu)建的全球L4級(jí)自動(dòng)駕駛與Robotaxi生態(tài)系統(tǒng)全景也亮相了,通過(guò)連接軟件開(kāi)發(fā)商、整車(chē)廠/出行平臺(tái)、硬件供應(yīng)商,覆蓋全產(chǎn)業(yè)鏈。
![]()
Nemotron再推專(zhuān)項(xiàng)模型
NVIDIA Nemotron在AI智能體領(lǐng)域的新拓展,核心是在已發(fā)布的Nemotron 3開(kāi)放模型與數(shù)據(jù)基礎(chǔ)上,進(jìn)一步推出針對(duì)語(yǔ)音RAG以及安全三大場(chǎng)景的專(zhuān)項(xiàng)模型。
![]()
其中,Nemotron Speech包含新的自動(dòng)語(yǔ)音識(shí)別(ASR)模型,不僅語(yǔ)音識(shí)別性能強(qiáng),而且能支持實(shí)時(shí)字幕生成這樣的實(shí)時(shí)低延遲場(chǎng)景,速度比同類(lèi)模型快10倍。
英偉達(dá)表示,目前博世已采用該模型實(shí)現(xiàn)司機(jī)與車(chē)輛之間的交互。
Nemotron RAG則搭載新的視覺(jué)語(yǔ)言模型,能精準(zhǔn)處理多語(yǔ)言、多模態(tài)數(shù)據(jù),有效提升文檔搜索效率。
Nemotron Safety系列模型專(zhuān)注于增強(qiáng)AI應(yīng)用的安全性與可信度,具體包括支持更多語(yǔ)言的Llama Nemotron內(nèi)容安全模型,以及高精度檢測(cè)敏感數(shù)據(jù)的Nemotron PII模型。
機(jī)器人推理大腦Cosmos升級(jí)
活動(dòng)現(xiàn)場(chǎng),老黃宣布英偉達(dá)為機(jī)器人推出的懂推理的“大腦”Cosmos再度升級(jí)。
Cosmos主要被用來(lái)生成符合現(xiàn)實(shí)世界物理規(guī)律的合成數(shù)據(jù),自發(fā)布以來(lái),已被Figure、Agility Robotics、通用汽車(chē)等一眾知名機(jī)器人和自動(dòng)駕駛公司采用。

這次全新發(fā)布了:
- Cosmos Reason 2:一款全新的、排名領(lǐng)先的視覺(jué)-語(yǔ)言推理模型(VLM)。它能夠幫助機(jī)器人與AI智能體更精準(zhǔn)地感知、理解并與物理世界進(jìn)行交互。
- Cosmos Transfer 2.5與Cosmos Predict2.5:兩款領(lǐng)先的模型,可在各種不同的環(huán)境與條件下,生成大規(guī)模的合成視頻。

英偉達(dá)還基于Cosmos模型,為各類(lèi)物理AI應(yīng)用推出了專(zhuān)用的開(kāi)源模型與參考藍(lán)圖:
- Isaac GR00TN1.6:一款專(zhuān)為類(lèi)人機(jī)器人打造的開(kāi)源視覺(jué)-語(yǔ)言-行動(dòng)(VLA)推理模型。它支持機(jī)器人的全身控制,并集成了英偉達(dá)Cosmos Reason模型,以實(shí)現(xiàn)更強(qiáng)大的推理能力與上下文理解能力。
- NVIDIA AI Blueprint for Video Search and Summarization:作為英偉達(dá)Metropolis平臺(tái)的一部分,該藍(lán)圖提供了一套參考工作流,可用于構(gòu)建視覺(jué)AI智能體。這些智能體能夠分析大量的錄播及直播視頻,從而提升運(yùn)營(yíng)效率并保障公共安全。
![]()
據(jù)了解,Salesforce、Milestone、Hitachi、Uber、VAST Data、Encord等企業(yè)正采用Cosmos Reason模型,開(kāi)發(fā)面向交通與職場(chǎng)生產(chǎn)力提升的AI智能體。Franka Robotics、Humanoid和NEURA Robotics則利用Isaac GR00T模型,在機(jī)器人大規(guī)模量產(chǎn)前,對(duì)其全新行為進(jìn)行仿真、訓(xùn)練與驗(yàn)證。
針對(duì)醫(yī)療健康與生命科學(xué)的AI
NVIDIA Clara是專(zhuān)門(mén)針對(duì)醫(yī)療健康與生命科學(xué)領(lǐng)域的AI技術(shù)工具。
核心目標(biāo)是降低行業(yè)成本、加速治療方案落地,打通數(shù)字科研與實(shí)際醫(yī)療應(yīng)用之間的壁壘。
該系列中的多款專(zhuān)項(xiàng)模型各有側(cè)重:
- La-Proteina能設(shè)計(jì)原子級(jí)精度的大型蛋白質(zhì);
- ReaSyn v2在藥物發(fā)現(xiàn)階段就開(kāi)始考慮“如何生產(chǎn)”的問(wèn)題;
- KERMT可以預(yù)測(cè)潛在藥物進(jìn)入人體后的反應(yīng),提前排查安全問(wèn)題;
- RNAPro用來(lái)預(yù)測(cè)RNA分子復(fù)雜的3D結(jié)構(gòu),推進(jìn)個(gè)性化醫(yī)療方案。

模型之外,老黃表示英偉達(dá)還將為研究者提供含45.5萬(wàn)個(gè)合成蛋白質(zhì)結(jié)構(gòu)的數(shù)據(jù)集。
總之,老黃的2026開(kāi)年第一講,真是讓人眼花繚亂了……
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.