<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      黃仁勛CES演講全文來了!Rubin全面投產,算力暴漲5倍,砸掉智駕門檻All in物理世界

      0
      分享至

      北京時間6日凌晨5點,美國拉斯維加斯,在全球“科技春晚”——國際消費電子展(CES)的聚光燈下,英偉達CEO黃仁勛身著標志性的鱷魚皮紋黑色夾克跑步登臺。

      AI競賽已經開始,所有人都在努力達到下一個水平……如果你不進行全棧的極端協同設計,根本無法跟上模型每年增長10倍的速度?!泵鎸Y本市場對“AI泡沫”的隱憂和摩爾定律失效的焦慮,黃仁勛用一套名為Vera Rubin的全新架構,向外界證明:英偉達依然掌握著定義AI未來的絕對權力。

      這次演講不同于以往單純發布顯卡,老黃這次雖然沒有帶來GeForce新品,卻用“All in AI”、“All in 物理AI”的姿態,向資本市場展示了一張從原子級芯片設計到物理世界機器人落地的完整拼圖。

      演講三大主線:
      • 在基礎設施與算力層面,英偉達通過“極端協同設計”暴力破解物理極限,重構了數據中心的成本邏輯。面對晶體管數量僅增長1.6倍的瓶頸,英偉達通過Vera Rubin平臺、NVLink 6互聯以及BlueField-4驅動的推理上下文內存存儲平臺,強行將推理性能提升5倍,并將Token生成成本壓低至1/10。這一層面的核心目標是解決Agentic AI(代理智能體)“算不起”和“記不住”(顯存墻)的問題,為AI從訓練向大規模推理轉移鋪平道路。
      • 在模型演進層面,英偉達正式確立了從“生成式AI”向“推理型AI”(Test-time Scaling)的范式轉移。黃仁勛強調AI已不再是一次性的問答,而是需要多步思考和規劃的思維鏈過程。通過開源Alpamayo(自動駕駛推理)、Cosmos(物理世界模型)以及Nemotron(智能體)系列模型,英偉達正在推動AI具備邏輯推理能力和長時記憶能力,使其能處理未見過的復雜長尾場景。
      • 在物理落地層面,英偉達宣布“物理AI”正式進入商業變現期,打破了AI僅存于屏幕的局面。演講明確了2026年Q1梅賽德斯-奔馳實車上路的時間表,并展示了與西門子在工業元宇宙的深度全棧合作。通過將Omniverse模擬環境、合成數據生成與機器人控制模型打通,英偉達正在將AI能力從互聯網云端這一“軟世界”,大規模注入到汽車、工廠、機器人等“硬世界”中。

      演講要點:
      • Vera Rubin平臺全面投產:新一代AI計算平臺的全部六款核心芯片已完成制造和關鍵測試,已進入全面生產階段。在晶體管僅增長1.6倍的物理極限下,通過“極端協同設計”強行實現5倍推理性能提升,訓練性能提升3.5倍。微軟下一代AI超級工廠將部署數十萬顆Vera Rubin芯片。
      • Rubin推理成本較Blackwell降10倍:明確回應市場對AI太貴的質疑,Rubin將推理Token生成成本壓低至Blackwell的1/10,讓高昂的Agentic AI具備商業可行性。
      • 解決AI“記憶”瓶頸:利用BlueField-4 DPU構建推理上下文內存存儲平臺,為每顆GPU憑空增加16TB高速共享內存,徹底解決長文本“顯存墻”問題。
      • 物理AI變現時刻:發布“具備推理能力”的自動駕駛模型Alpamayo,明確2026年Q1隨梅賽德斯-奔馳實車上路,開啟物理AI營收周期。
      • 能源經濟學重構:Rubin架構支持45℃溫水冷卻,無需冷水機組,直接為全球數據中心節省6%的電力。
      • 開源生態擴張:宣布擴展其開源模型生態,覆蓋物理AI、自動駕駛、機器人、生物醫學等多個關鍵領域,并提供配套數據集和工具鏈。
      • 工業元宇宙落地:與西門子達成深度全棧合作,將英偉達AI技術植入全球工業制造底層,從“設計芯片”延伸至“設計工廠”。


      新王亮相:Rubin平臺全面投產,推理成本較Blackwell降10倍

      “Vera Rubin已經全面投產。”黃仁勛宣布在CES展會推出新一代Rubin AI平臺,該平臺通過六款新芯片的集成設計,在推理成本和訓練效率上實現大幅躍升,將于2026年下半年交付首批客戶。

      這也是市場最為關切的消息。他將Rubin GPU形容為“一只巨大的怪獸(It's a giant ship)”,并詳盡闡述了背后的邏輯:“AI的推理成本每年要下降10倍,而AI‘思考’(Test-time Scaling)產生的token數量每年增長5倍。”在這兩股力量的巨大拉扯下,傳統芯片的迭代節奏無法滿足要求。


      黃仁勛用一個生動的比喻來解釋新一代AI芯片的設計思路:“這不是簡單地造一個更好的引擎,而是重新設計整輛車,讓引擎、傳動、底盤協同工作。它的AI浮點性能是Blackwell的5倍,但晶體管數量僅為后者的1.6倍。”黃仁勛強調,這種超出摩爾定律常規預期的性能飛躍,源自于“極端協同設計”。

      他所指的“協同”涵蓋了從CPU、GPU、網絡芯片到整個冷卻系統的全方位重構。這種設計的實際效果直接反映在市場最敏感的成本指標上:推理成本最高可降至Blackwell平臺的1/10。具體來看:

      • 算力:Rubin GPU在NVFP4精度下的推理性能達到50 PFLOPS(Blackwell的5倍),訓練性能35 PFLOPS(較上代提升3.5倍)。每顆GPU封裝8組HBM4內存,帶寬高達22 TB/s。

      • CPU黑科技:全新的Vera CPU集成了88個定制Olympus Arm核心,采用了一種名為“空間多線程”(Spatial Multi-threading)的設計,可同時高效運行176個線程,解決了CPU跟不上GPU吞吐的痛點。

      • 連接:NVLink 6將機架內的通信帶寬推高至驚人的240 TB/s,是全球互聯網總帶寬的兩倍以上。



      AI的下半場:從“死記硬背”到“邏輯思考”

      演講中,黃仁勛敏銳地捕捉到了AI模型側的根本性變化——Test-time Scaling(測試時擴展)

      “推理不再是一次性的回答,而是一個思考的過程?!彼赋?,隨著DeepSeek R1和OpenAI o1等模型的出現,AI開始展現出思維鏈(Chain of Thought)能力。這意味著AI在給出答案前,需要消耗大量的算力進行多步推理、反思和規劃。

      對于投資者而言,這是一個巨大的增量信號:未來的算力消耗將從“訓練側”大規模轉移到“推理側”。為了支撐這種“讓AI多想一會兒”的需求,算力必須足夠便宜。Rubin架構的核心使命,就是將MoE(混合專家模型)的推理Token生成成本降低至Blackwell的1/10。只有將成本打下來,能夠處理復雜任務的Agentic AI(代理智能體)才具備商業落地的可能性。

      突破瓶頸:如何讓AI“記住”更長的對話

      而當AI從簡單的問答轉向長時間的復雜推理時,一個新的瓶頸出現了——記憶。

      在Agentic AI時代,智能體需要記住漫長的對話歷史和復雜的上下文,這會產生巨大的KV Cache(鍵值緩存)。傳統的解決方案是將這些數據塞進昂貴的HBM顯存中,但HBM容量有限且價格高昂,這被稱為“顯存墻”。

      黃仁勛詳細解釋了這一問題:“AI的工作記憶存儲在HBM內存中。每生成一個token,它都要讀取整個模型和所有工作記憶。”對于需要長期運行、擁有持續記憶的AI智能體,這種架構顯然不可持續。

      解決方案是一套全新的存儲架構。黃仁勛亮出了他的秘密武器:基于BlueField-4 DPU構建的推理上下文內存存儲平臺(Inference Context Memory Storage Platform)


      他指著舞臺上那個巨大的機架系統解釋道:“在每個GPU原有1TB內存的基礎上,我們通過這個平臺為每個GPU額外增加了16TB的‘思考空間’。”這個平臺被放置在離計算單元最近的位置,通過高達200Gb/s的帶寬連接,避免了傳統存儲帶來的延遲瓶頸。

      這一設計直接回應了市場對AI應用規?;渴鸬膿鷳n:沒有足夠大且快速的內存,AI就無法真正成為我們長期的、個性化的助手

      物理AI落地:不畫餅,Q1智駕汽車直接上路

      黃仁勛將演講的第二部分聚焦于一個更宏大的主題:“物理AI的ChatGPT時刻已到來——機器開始理解、推理并在真實世界中行動。

      為了證明AI不僅僅能聊天,黃仁勛發布了全球首款開源的VLA(視覺-語言-行動)自動駕駛推理模型——Alpamayo。與傳統自動駕駛不同,Alpamayo能“解釋”自己的決策。

      這不僅僅是一個駕駛模型,而是一個能解釋自己思考過程的模型。”黃仁勛播放了一段演示視頻,Alpamayo不僅能駕駛汽車,還能用自然語言解釋自己的決策邏輯,例如“前方車輛剎車燈亮起,它可能減速,所以我應該保持距離”。


      這種“可解釋的AI”對于解決自動駕駛的長尾問題至關重要。黃仁勛坦言:“我們不可能收集世界上所有可能的駕駛場景。但我們可以讓AI學會‘推理’,將陌生場景分解為已知的元素組合。

      這一技術即將走向商業化。黃仁勛宣布:“首款搭載英偉達全棧DRIVE系統的梅賽德斯-奔馳CLA車型將于2026年第一季度在美國上路。”這標志著英偉達的AI技術首次完整地應用于量產汽車。


      硅光技術(CPO)與溫水冷卻:為全球數據中心省電6%

      在連接與散熱層面,英偉達也展示了統治級的技術儲備。

      首先是光通信的革命。黃仁勛正式發布了采用“共封裝光學(CPO)”技術的Spectrum-6以太網交換機(SN688/SN6810)。

      他明確表示:“與不具備硅光子技術的硬件相比,它們在能效、可靠性和運行時間方面表現更優?!边@意味著CPO不再是實驗室里的概念,而是已經進入了英偉達的量產清單,光模塊產業鏈將迎來從可插拔向CPO轉型的實質性時刻。

      其次是能源經濟學的重構。AI的高能耗一直是懸在頭頂的達摩克利斯之劍。Rubin NVL72機架實現了100%液冷,且支持45攝氏度的進水溫度。這意味數據中心不再需要高能耗的冷水機組(Chillers)來制造冷水,直接利用自然冷卻或溫水循環即可散熱。黃仁勛自豪地宣布,這將為全球數據中心節省6%的電力。這對于電力配額捉襟見肘的北美數據中心市場來說,是一個無法拒絕的誘惑。


      工業界聯盟:AI如何改變萬億美元的傳統產業

      如果物理AI僅停留在汽車領域,其想象空間或許有限。但黃仁勛展示了更廣闊的圖景——工業制造

      我們必須設計制造這些AI芯片的工廠,而這些工廠本身就是巨大的機器人。”黃仁勛用這一邏輯將話題轉向了工業制造領域的巨頭——西門子。


      他宣布與西門子達成深度戰略合作:“我們將英偉達的物理AI、代理AI模型和Omniverse平臺深度集成到西門子的工業軟件與數字孿生工具鏈中。

      這一合作的規模遠超普通的技術集成。黃仁勛解釋道:“你將在這些平臺上設計你的芯片和系統,在計算機中模擬整個制造流程,甚至在它們接觸重力之前完成測試和評估。

      這種合作標志著英偉達AI技術從數據中心向實體經濟的全面滲透。當AI不僅能生成文本和圖像,還能設計、模擬和優化物理世界的復雜系統時,其市場潛力將從互聯網經濟擴展至全球工業經濟

      開放生態戰略:如何應對開源模型的沖擊

      面對日益強大的開源模型,黃仁勛沒有回避,而是展示了英偉達的應對策略——成為開源的領導者而非被動應對者

      我們是前沿AI模型的建設者,而且我們以一種非常特殊的方式構建它——完全開放。”黃仁勛宣布擴展英偉達的“開放模型宇宙”,涵蓋了從生物醫學到物理世界的六大領域。

      他特別強調了開源帶來的產業激活效應:“當開放創新、全球協作真正啟動后,AI的擴散速度會極快。

      英偉達的開源不是簡單的代碼釋放,而是全套工具鏈的開放,包括訓練數據、模型架構、評估工具等。這種策略的智慧在于:與其被開源社區顛覆,不如主動塑造開源生態的標準和方向。

      隨著英偉達的技術從芯片延伸到系統,從云端滲透到物理世界,這家公司正在構建的已不再僅僅是計算平臺,而是一個AI驅動的新世界基礎架構。


      演講全文如下(翻譯由AI工具輔助):

      黃仁勛:
      你好,拉斯維加斯!新年快樂!歡迎大家。好吧,我們大概準備了相當于15場主題演講的內容要塞進這場發布會里。很高興見到你們所有人?,F場有3000名觀眾,外面的庭院里還有2000人在觀看,據說四樓還有1000人在英偉達的展區觀看這場直播。當然,全球還有數百萬觀眾在線上收看,與我們共同開啟這個新年。
      每隔10到15年,計算機行業就會重啟一次。從大型機到PC,到互聯網,到云,再到移動端,新的平臺轉移不斷發生。每一次,應用世界都會瞄準一個新的平臺。這就是為什么它被稱為平臺轉移。你為新計算機編寫新應用,但這一次,實際上有兩個平臺轉移同時發生。當我們轉向AI時,應用程序現在將建立在AI之上。起初,人們認為AI就是應用程序。事實上,AI確實是應用程序,但你們將在AI之上構建應用程序。除此之外,軟件的運行方式、軟件的開發方式也發生了根本性變化。計算機行業的整個核心堆棧正在被重塑。你不再是對軟件進行編程,而是訓練軟件。你不在CPU上運行它,而是在GPU上運行它。以前的應用程序是預先錄制、預先編譯并在設備上運行的,而現在的應用程序能夠理解上下文,并完全從零開始生成每一個像素、每一個Token。
      每一次都是如此。由于加速計算和人工智能,計算已被根本性重塑。這五層蛋糕的每一層都在被重新發明。這意味著過去十年中約10萬億美元的計算基礎設施正在向這種新的計算方式現代化轉型。這意味著每年有數千億美元、幾千億美元的風險投資正在投入到現代化和發明這個新世界中。這意味著價值100萬億美元的產業,其中幾個百分點是研發預算,正在轉向人工智能。人們問,錢從哪里來?這就是錢的來源。從傳統IT向AI的現代化,研發預算從經典方法向人工智能方法的轉移。巨大的投資正涌入這個行業,這也解釋了為什么我們如此忙碌。去年也不例外。
      去年是不可思議的一年。這有一張幻燈片要放……這就是當你沒彩排就開場的結果,這是今年的第一場主題演講。希望這也是你們今年的第一場。否則,如果你們來這里之前已經很忙了,那就算了。這是我們今年的第一場,我們要把蜘蛛網掃干凈。2025年是令人難以置信的一年。似乎所有事情都在同一時間發生。事實上,可能確實如此。首先當然是縮放定律(Scaling Laws)。2015年,第一個我認為真正會產生影響的語言模型出現了,它確實產生了巨大影響,它叫BERT。2017年,Transformer來了。
      直到五年后的2022年,ChatGPT時刻發生了。它喚醒了世界對人工智能可能性的認知。一年后發生了一件非常重要的事情。來自ChatGPT的首個o1模型,首個推理模型,完全革命性地發明了這個叫做**“測試時擴展”(Test-time Scaling)的概念,這其實是非常常識性的東西。我們不僅預訓練模型讓其學習,我們還在訓練后通過強化學習讓它學習技能。現在我們還有了測試時擴展,換句話說就是“思考”,你在實時地思考。人工智能的每一個階段都需要大量的計算,計算定律繼續擴展。大語言模型繼續變得更好。
      與此同時,另一個突破發生了,這一突破發生在2024年。Agentic(代理/智能體)系統開始出現。2025年,它開始普及,幾乎遍布各地。能夠推理、查找信息、做研究、使用工具、規劃未來、模擬結果的代理模型,突然開始解決非常重要的問題。我最喜歡的代理模型之一叫做Cursor,它徹底改變了我們在英偉達進行軟件編程的方式。Agentic系統將從這里真正騰飛。
      當然,還有其他類型的AI。我們知道大語言模型并不是唯一的信息類型。只要宇宙中有信息,只要宇宙有結構,我們就可以教一個大語言模型、一種形式的語言模型去理解這些信息,理解其表征,并將其轉化為AI。其中最大、最重要的一類是理解自然法則的物理AI(Physical AI)。當然,物理AI是關于AI與世界互動的。但世界本身就有信息,編碼的信息,這被稱為AI,物理AI。在物理AI的情況下,你有與物理世界互動的AI,也有理解物理定律的AI,即AI物理學。
      最后,去年發生的最重要的事情之一是開放模型(Open Models)的進步。我們現在知道,當開源、當開放創新、當全球每一家公司和每一個行業的創新同時被激活時,AI將無處不在。去年,開放模型真正起飛了。事實上,去年我們見證了DeepSeek R1的進步,這是第一個開放模型。那是一個推理系統。它讓世界大吃一驚,并真正激活了這整個運動。非常令人興奮的工作。我們對此感到非常高興?,F在我們在世界各地有各種不同類型的開放模型系統。我們現在知道,開放模型也已經觸及前沿,雖然仍穩固地落后前沿模型六個月,但每隔六個月,一個新的模型就會出現,而且由于這個原因,這些模型正變得越來越聰明。你可以看到下載量已經爆炸式增長。下載量增長如此之快,是因為初創公司希望參與AI革命。大公司想參與,研究人員想參與,學生想參與,幾乎每個國家都想參與。
      數字形式的智能怎么可能拋下任何人?因此,開放模型去年真正徹底改變了人工智能。整個行業將因此被重塑。
      幾年前我們就有了這種預感,你們可能聽說過,幾年前我們就開始構建和運營自己的AI超級計算機,我們稱之為DGX Cloud。很多人問,你們是要進入云業務嗎?答案是否定的。我們構建這些DGX超級計算機是為了自己使用。結果證明,我們運營著價值數十億美元的超級計算機,以便我們可以開發我們的開放模型。
      我對我們正在做的工作感到非常高興。它開始吸引全世界和各行各業的關注,因為我們在如此多的不同領域進行前沿AI模型工作。我們在蛋白質、數字生物學領域的工作,Llama Protina,能夠合成和生成蛋白質。OpenFold 3,去理解蛋白質的結構。Evo 2,如何理解和生成多種蛋白質。這也是細胞表征的開端。
      Earth 2,理解物理定律的AI。我們利用ForecastNet所做的工作,利用Cordiff所做的工作,真正徹底改變了人們進行天氣預測的方式。NeMo Tron,我們正在那里做開創性的工作,第一個混合Transformer SSM模型,速度極快,因此可以思考很長時間,或者可以在不花很長時間的情況下非??焖俚厮伎疾a生非常聰明、智能的答案。NeMo Tron 3是開創性的工作,你們可以期待我們在不久的將來交付NeMo Tron 3的其他版本。
      Cosmos,一個前沿的開放世界基礎模型,一個理解世界如何運作的模型。GR00T,一個類人機器人系統,涉及關節、移動性、運動。這些模型、這些技術現在正在被集成,在每一個案例中都向世界開放,前沿的人形機器人模型向世界開放。今天我們要談一點關于Alpamayo,我們在自動駕駛汽車方面所做的工作。我們不僅開源了模型,還開源了我們用來訓練這些模型的數據。因為只有這樣,你才能真正信任模型的來源。我們開源所有模型。我們幫助你們從中制作衍生品。
      我們有一整套庫。我們稱之為NeMo庫,物理NeMo庫,以及Clara NeMo庫,每一個BioNeMo庫。每一個庫都是AI的生命周期管理系統,以便你可以處理數據、生成數據、訓練模型、創建模型、評估模型、為模型設置護欄,直到部署模型。每一個庫都極其復雜,而且全部開源。所以現在在這個平臺上,英偉達是一個前沿AI模型構建者,我們以一種非常特殊的方式構建它。我們完全在公開環境中構建它,以便我們可以賦能每一家公司、每一個行業、每一個國家成為這場AI革命的一部分。
      我為我們在那里所做的工作感到無比自豪。事實上,如果你注意到趨勢、圖表,圖表顯示我們對這個行業的貢獻是首屈一指的。實際上你會看到我們將繼續這樣做,甚至加速。
      這些模型也是世界級的。所有系統都癱瘓了。這在圣克拉拉從來沒發生過。是因為拉斯維加斯嗎?肯定有人在外面中了頭獎。所有系統都癱瘓了。好吧。我想我的系統還沒恢復,但這沒關系。我會在進行中即興發揮。不僅這些模型具有前沿能力,不僅它們是開放的,它們還在排行榜上名列前茅。
      這是我們非常自豪的一個領域。它們在智能排行榜上名列前茅。我們有重要的模型能夠理解多模態文檔,也就是PDF。世界上最有價值的內容都捕捉在PDF中。但這需要人工智能來找出里面的內容,解釋里面的內容并幫助你閱讀它。所以我們的PDF檢索器、我們的PDF解析器是世界級的,我們的語音識別模型絕對是世界級的。我們的檢索模型,基本上是現代AI時代的搜索引擎語義搜索AI、數據庫引擎,也是世界級的。所以我們經常在排行榜上名列前茅。
      這是一個我們非常自豪的領域,所有這些都是為了服務于你們構建AI代理(AI Agents)的能力。這真的是一個開創性的發展領域。你知道,當ChatGPT剛出來的時候,人們說,天哪,它產生了非常有趣的結果,但幻覺非常嚴重。產生幻覺的原因當然是因為它可以記住過去的一切,但它無法記住未來或當前的一切。因此它需要扎根于研究。在回答問題之前,它必須進行基礎研究。推理的能力——我是否需要做研究?我是否需要使用工具?我如何將一個問題分解成步驟?每一個步驟都是AI模型知道如何做的事情。而在它們組合在一起時,它能夠按順序執行從未做過、從未受過訓練去執行的事情。
      這就是推理的美妙能力。我們可以遇到以前從未見過的情況,并將其分解為我們知道如何做的情境、知識或規則,因為我們在過去經歷過。因此,AI模型現在能夠進行推理的能力極其強大,代理的推理能力打開了通往所有這些不同應用的大門。我們不再需要在第一天就訓練一個AI模型知道所有事情,就像我們不需要在第一天就知道所有事情一樣,我們應該能夠在每種情況下推理如何解決那個問題。
      大語言模型現在已經實現了這一根本性的飛躍,使用強化學習和思維鏈(Chain of Thought)、搜索和規劃以及所有這些不同的技術和強化學習的能力,使得我們擁有這種基本能力成為可能,而且現在也完全開源了。
      但真正棒的是另一個突破。我第一次看到它是在Aravind的Perplexity上。那家搜索公司,AI搜索公司,真正創新、真正的公司。我第一次意識到他們同時使用多個模型時,我覺得這完全是天才之舉。當然,我們也會那樣做。
      當然,AI也會在推理鏈的任何部分調用世界上所有偉大的AI來解決它想要解決的問題。這就是為什么AI實際上是多模態的(Multi-modal),意味著它們理解語音、圖像、文本、視頻、3D圖形和蛋白質。那是多模態。它也是多模型(Multi-model)的,意味著它們應該能夠使用任何最適合任務的模型。根據定義,它是多云的,因為這些AI模型位于所有這些不同的地方。它也是混合云,因為如果你是一家企業公司或你建造了一個機器人或任何設備,有時它在邊緣,有時是無線電蜂窩塔,有時是在企業內部,或者可能是在醫院這樣你需要數據實時就在你身邊的地方。
      無論那些應用是什么,我們現在知道這就是未來AI應用的樣子。或者換個方式思考,因為未來的應用是建立在AI之上的。這是未來應用的基本框架。這個基本框架,這種能夠做我所說的事情的代理AI的基本結構,它是多模型的,現在已經為各種AI初創公司增壓?,F在你也因為我們提供的所有開放模型和所有工具,你可以定制你的AI,教你的AI其他人沒有教的技能。沒有其他人讓他們的AI變得如此智能,如此聰明。你可以為自己做這件事。這就是我們在NeMo Tron、NeMo以及我們在開放模型方面所做的一切工作的意圖。你在它前面放一個智能路由器,那個路由器本質上是一個管理者,它根據你給它的提示意圖,決定哪個模型最適合該應用,最適合解決那個問題。
      好的,當你思考這個架構時,你得到了什么?當你思考這個架構時,突然之間你擁有了一個一方面完全由你定制的 AI。你可以教它為你公司做特定的技能,那些領域機密的東西,那些你擁有深厚領域專業知識的東西,也許你擁有訓練該 AI 模型所需的所有數據。另一方面,你的 AI 永遠處于前沿。根據定義,你一方面永遠在前沿,另一方面永遠是定制的,而且它應該就能運行。
      所以我們認為我們會制作最簡單的示例,向你們提供這個完整的框架。我們稱之為藍圖(Blueprint)。我們有集成到全球企業 SaaS 平臺中的藍圖,我們對進展感到非常高興。但我們要向你們展示一個任何人都可以做的簡短示例。
      演示視頻:
      讓我們構建一個個人助理。我希望它能幫我處理日歷、電子郵件、待辦事項列表,甚至幫我照看家里。我使用Brev將我的 DGX Spark 變成個人云。所以我可以使用相同的界面,無論我使用的是云 GPU 還是 DGX Spark。我使用前沿模型 API 輕松上手。我希望它幫我處理電子郵件,所以我為我的智能體創建了一個電子郵件工具。我希望我的電子郵件保持私密,所以我添加了一個在 Spark 上本地運行的開放模型。
      現在,對于任何工作,我都希望智能體使用正確的模型來完成任務,所以我將使用一個基于意圖的模型路由器。這樣,需要電子郵件的提示將留在我的 Spark 上,其他所有內容都可以調用前沿模型。我希望我的助手與我的世界互動,所以我將它連接到 Hugging Face 的 Richie 迷你機器人。我的智能體通過工具調用控制 Richie 的頭、耳朵和攝像頭。
      黃仁勛:
      調用。
      演示視頻:
      我想給 Richie 一個聲音,我很喜歡 ElevenLabs,所以我連接了他們的 API。
      Richie 機器人:
      嗨,我是 Richie,運行在 DGX 上。
      演示視頻:
      嘿,Richie,今天我的待辦事項清單上有什么?
      演示視頻:
      你今天的待辦事項:買雜貨——雞蛋、牛奶、黃油,還要給 Jensen 發送新腳本。
      演示視頻:
      好的,讓我們給 Jensen 發送那個更新。告訴他我們會在今天結束前給他。
      演示視頻:
      好的。
      演示視頻:
      Richie,這里還有一個草圖。你能把它變成建筑渲染圖嗎?
      演示視頻:
      當然。
      演示視頻:
      不錯。現在制作一個視頻,帶我參觀一下房間。
      演示視頻:
      給你。
      演示視頻:
      太棒了。有了 Brev,我可以分享對我的 Spark 和 Richie 的訪問權限。所以我打算把它分享給 Anna。
      演示視頻:
      嘿,Richie,Potato(寵物狗)在干什么?
      演示視頻:
      它在沙發上。我記得你不喜歡這樣。我會叫它下來。Potato,下沙發。
      演示視頻:
      隨著開源的所有進展,看到你能構建什么真是不可思議。我很想看看你們創造了什么。
      黃仁勛:
      這難道不令人難以置信嗎?現在令人驚訝的是,這已經變得微不足道了。然而就在幾年前,這一切都是不可能的,絕對無法想象的。好吧,這個基本框架,這種構建應用程序的基本方式——使用預訓練的、專有的前沿語言模型,結合定制的語言模型,進入一個智能體框架(Agentic Framework),一個允許你訪問工具、文件甚至連接到其他智能體的推理框架。這基本上就是 AI 應用或現代應用的架構。
      我們要創建這些應用程序的能力非常快。注意,如果你給它以前從未見過的應用信息,或者以一種并未完全按你所想的方式呈現的結構,它仍然可以推理并盡最大努力去推理數據和信息,試圖理解如何解決問題。這就是人工智能。
      這種基本框架現在正在被整合。剛才我描述的一切,我們有幸與一些世界領先的企業平臺公司合作。例如Palantir,他們的整個 AI 和數據處理平臺今天正在被 NVIDIA 加速并整合。ServiceNow,世界領先的客戶服務和員工服務平臺。Snowflake,云端頂級數據平臺,那里正在進行令人難以置信的工作。Code Rabbit,我們在 NVIDIA 隨處都在使用它。CrowdStrike,創建 AI 來檢測和定義 AI 威脅。NetApp,他們的數據平臺現在上面有了 NVIDIA 的語義 AI,一個用于客戶服務的智能體系統。
      但重要的是:這不僅是你現在開發應用程序的方式,這還將成為你平臺的用戶界面。無論你是 Palantir、ServiceNow、Snowflake 還是我們合作的許多其他公司,智能體系統就是界面。不再是 Excel 里填滿方格輸入信息,也許不再只是命令行。所有這些多模態信息現在都成為可能,你與平臺互動的方式更加——如果你愿意的話——簡單,就像你在與人互動一樣。這就是被智能體系統革命化的企業 AI。
      接下來是物理AI(Physical AI)。這是一個你們看我談論了幾年的領域。事實上,我們已經為此努力了八年。問題是,你如何將計算機內部的智能,那些通過屏幕和揚聲器與你互動的智能,轉變為可以與世界互動的智能,意味著它可以理解世界運作的常識。
      物體恒存性。如果我看向別處再看回來,那個物體還在那里。因果關系。如果我推它,它會倒下。它理解摩擦力和重力。它理解慣性。一輛重型卡車沿路滾下需要更多時間停下來,而一個球會繼續滾動。
      這些概念對一個小孩子來說都是常識,但對AI來說完全未知。所以我們必須創建一個系統,允許AI學習物理世界的常識,學習其定律,當然也要能夠從數據中學習。數據非常稀缺,并且要能夠評估那個AI是否在工作,意味著它必須在環境中進行模擬。如果AI沒有能力模擬物理世界對其行動的反應,它怎么知道它正在執行的行動是否符合它應該做的?對其行動反應的模擬對于評估非常重要。否則,就沒有辦法評估它。每次都不一樣。所以這個基本系統需要三臺計算機。一臺計算機,當然是我們知道英偉達制造的用于訓練AI模型的。另一臺計算機是用于推理模型的,推理計算機本質上是一臺機器人計算機,運行在汽車里或機器人里或工廠里,運行在邊緣的任何地方。
      但必須有另一臺設計用于模擬的計算機。模擬幾乎是英偉達所做一切的核心。這是我們最舒適的地方,模擬真的是我們用物理AI所做幾乎一切的基礎。所以我們有三臺計算機和運行在這些計算機上的多個堆棧,這些庫使它們變得有用。Omniverse是我們的數字孿生、基于物理的模擬世界。Cosmos,如我之前提到的,是我們的基礎模型,不是語言的基礎模型,而是世界的基礎模型,并且也與語言對齊。你可以說像“球發生了什么?”它會告訴你球正滾下街道。所以是一個世界基礎模型。然后當然是機器人模型。我們有兩個。一個叫GR00T,另一個叫Alpamayo,我現在要告訴你們。
      我們對物理 AI 必須做的最重要的事情之一是創建數據來首先訓練 AI。數據從哪里來?與其像語言那樣因為我們創建了大量文本作為 AI 學習的“基準真理(Ground Truth)”,我們如何教 AI 物理的基準真理?有很多很多視頻,但很難捕捉到我們需要的多樣性和交互類型。所以這就是偉大的頭腦聚集在一起,將曾經的計算轉化為數據的地方。
      現在使用以物理定律為基礎和條件、以基準真理為基礎和條件的合成數據生成(Synthetic Data Generation),我們可以選擇性地、巧妙地生成我們可以用來訓練 AI 的數據。例如,進入左邊這個 Cosmos AI 世界模型的是交通模擬器的輸出?,F在這個交通模擬器對于 AI 學習來說遠遠不夠。我們可以把它放入 Cosmos 基礎模型中,生成基于物理且在物理上合理的環繞視頻,AI 現在可以從中學習。這方面有很多例子。讓我向你們展示 Cosmos 能做什么。
      “物理AI的ChatGPT時刻即將到來?!?/strong>
      Cosmos是世界領先的基礎模型,世界基礎模型。它已被下載數百萬次,在世界各地使用,讓世界為這個物理AI的新時代做好準備。我們也自己使用它。我們自己使用它來創建我們的自動駕駛汽車,用于場景生成和評估。我們可以擁有讓我們有效行駛數十億、數萬億英里,但在計算機內部完成的東西。我們取得了巨大的進步。今天,我們宣布Alpamayo,世界上第一款會思考、推理的自動駕駛汽車AI。
      Alpamayo是端到端訓練的,字面意思是從攝像頭輸入到執行輸出。攝像頭輸入大量由它自己駕駛的里程,或是我們人類駕駛的,使用人類演示。我們還有大量由Cosmos生成的里程。除此之外,成千上萬的例子被非常仔細地標記,以便我們可以教汽車如何駕駛。
      Alpamayo做了一些非常特別的事情。它不僅接收傳感器輸入并激活方向盤、剎車和加速,它還推理它將要采取的行動。它告訴你它將要采取什么行動,它得出那個行動的理由,當然還有軌跡。所有這些都直接耦合,并由大量人類訓練以及Cosmos生成的數據非常具體地訓練。結果真的令人難以置信。你的車不僅像你期望的那樣駕駛,而且它駕駛得如此自然,因為它直接從人類演示者那里學習。但在每一個場景中,當它遇到場景時,它會推理,它告訴你它要做什么,并推理它將要做什么。
      為什么這如此重要?因為駕駛的長尾效應。我們不可能簡單地為每個國家、每種情況、所有人口可能發生的每一件可能的事情收集每一個可能的場景。然而,每種場景很有可能分解成一大堆其他較小的場景,這對你來說理解起來很正常。因此,這些長尾將被分解成汽車知道如何處理的相當正常的情況,它只需要對其進行推理。
      讓我們來看一下。你們即將看到的一切都是一次通過,不需動手。
      視頻演示(車內導航語音):
      正在導航至目的地。系好安全帶。
      (視頻播放:自動駕駛過程)
      視頻演示:
      你已到達。
      黃仁勛:
      我們在八年前開始研究自動駕駛汽車。原因是我們早就推斷深度學習和人工智能將徹底重塑整個計算堆棧。如果我們想要理解如何導航并引導行業走向這個新未來,我們必須擅長構建整個堆棧。
      我們想象有一天,路上的十億輛汽車都將是自動駕駛的。你要么擁有它作為Robotaxi,你正在編排并從某人那里租用,要么你擁有它,它自己駕駛,或者你決定自己駕駛。但是,每一輛車都將具備自動駕駛車輛的能力,每一輛車都將由AI驅動。因此,這個案例中的模型層是Alpamayo,上面的應用是梅賽德斯-奔馳。
      好的,這整個堆棧是我們英偉達的第一個全棧嘗試。我們一直在這整個時間里致力于此。我很高興英偉達的第一輛自動駕駛汽車將在第一季度(Q1)上路(在美國),然后在第二季度去歐洲,第一季度在美國,然后第二季度在歐洲,我想第三季度和第四季度是亞洲。強大的是,我們將繼續用下一個版本的Alpamayo和之后的版本更新它。
      我現在毫無疑問,這將是最大的機器人產業之一,我很高興我們致力于此。它教會了我們大量關于如何幫助世界其他地方構建機器人系統的知識,那種深刻的理解和知道如何自己構建它,自己構建整個基礎設施,知道機器人系統需要什么樣的芯片。
      在這個特定的案例中,雙Orin芯片,下一代是雙Thor芯片。這些處理器專為機器人系統設計,并為最高級別的安全能力而設計。這輛車剛剛獲得評級。看,剛剛投產的梅賽德斯-奔馳 CLA 剛剛被 NCAP 評為世界上最安全的汽車。
      這是我知道的唯一一個系統,其每一行代碼、芯片、系統都經過安全認證。整個模型系統基于我們。傳感器是多樣化且冗余的,自動駕駛汽車堆棧也是如此。Alpamayo堆棧是端到端訓練的,擁有令人難以置信的技能。然而,除非你永遠駕駛它,否則沒人知道它是否絕對安全。
      所以我們用另一個軟件堆棧,即底層的整個 AV 堆棧來進行護欄保護。整個 AV 堆棧被構建為完全可追溯的。我們花了大約五年,實際上是六七年的時間來構建第二個堆棧。這兩個軟件堆棧相互鏡像。然后我們有一個策略和安全評估器來決定:這是我有信心并能推理出可以非常安全駕駛的情況嗎?如果是,我會讓Alpamayo來做。如果這是一個我不太有信心的情況,安全策略評估器決定我們將回到一個更簡單、更安全的護欄系統。
      然后它會回到經典的 AV 堆棧,這是世界上唯一擁有這兩個同時運行的 AV 堆棧的汽車,所有安全系統都應該具有多樣性和冗余性。我們的愿景是有朝一日每一輛車、每一輛卡車都將是自動駕駛的。我們一直在朝著那個未來努力。整個堆棧是垂直整合的。
      當然,在梅賽德斯-奔馳的案例中,我們共同構建了整個堆棧。我們將部署這輛車,并在我們存續期間一直運營和維護這個堆棧。然而,就像我們要做的所有其他事情一樣,我們構建了整個堆棧,但整個堆棧對生態系統是開放的。與我們合作構建 L4 和 Robotaxi 的生態系統正在擴大,遍布各地。我完全預計這將是——這已經是一個巨大的業務了。這對我們來說是一個巨大的業務,因為他們使用它來訓練、處理數據和訓練他們的模型。他們用它進行合成數據生成。在某些情況下,有些公司幾乎只構建車內的計算機芯片。有些公司與我們進行全棧合作,有些公司與我們進行部分合作。沒關系你決定用多少,我唯一的請求是盡可能多用一點 NVIDIA。
      這就是現在的全部開放內容。這將是第一個大規模的主流 AI、物理 AI 市場。我想我們在這里都完全同意,從非自動駕駛汽車到自動駕駛汽車的這個轉折點可能就在這個時間發生。在接下來的 10 年里,我相當確定世界上很大比例的汽車將是自動駕駛或高度自動駕駛的。
      但我剛才描述的這種使用三臺計算機、使用合成數據生成和模擬的基本技術適用于每一種形式的機器人系統。它可以是一個僅僅是關節、機械手的機器人,也許是一個移動機器人,也許是一個完全的人形機器人。所以機器人系統的下一個旅程、下一個時代將是機器人。這些機器人將有各種不同的尺寸。我邀請了一些朋友。他們來了嗎?嘿,伙計們,快點。我有很多東西要講。來吧,快點。你告訴 R2D2 你會在這兒嗎?C-3PO。好的。好的。到這兒來。
      (機器人上臺)
      現在,有一件非?!銈冇?Jetson。它們里面有小型的 Jetson 計算機。它們是在 Omniverse 內部訓練的。這樣如何?讓我們向大家展示你們學習如何成為機器人的模擬器,你們想看那個嗎?好的,讓我們看看那個。Rana,請。
      (視頻演示:Omniverse 中的機器人訓練)
      這太神奇了。那就是你學習成為機器人的方式。你是在 Omniverse 內部完成的,機器人模擬器叫Isaac SimIsaac Lab。任何想制造機器人的人——即使沒有人會像你們這么可愛——但現在我們有了所有這些朋友,我們正在制造機器人。
      我們有制造大的。不,就像我說的,沒人像你們這么可愛。但我們有 Neuro Bot,我們有 Ag Bot。那邊的 AG Bot。我們有 LG 在這邊。他們剛剛發布了一個新機器人。Caterpillar,他們有史上最大的機器人。那個是把食物送到你家的,連接著 Uber Eats。那是 Serve Robot,我喜歡那些家伙。Agility、Boston Dynamics。不可思議。你有手術機器人,你有來自 Franka 的機械臂機器人,你有 Universal Robotics 的機器人。數量驚人的不同種類的機器人。
      所以這是下一章。我們將來會更多地談論機器人技術。
      但最終不僅僅是關于機器人。我知道一切都是關于你們這群家伙的。關鍵是到達那里。世界上最重要的行業之一將被物理 AI 和 AI 物理學徹底革命化,這個行業也是 NVIDIA 的起源。如果沒有我要談到的這些公司,NVIDIA 就不可能存在。我很高興所有這些公司,從Cadence開始,都在加速一切。Cadence 將 CUDA-X 集成到他們所有的模擬和求解器中。
      他們擁有 NVIDIA 物理 AI,他們將用于不同的物理工廠和工廠模擬。你有 AI 物理學被集成到這些系統中。所以無論是 EDA 還是 CAE,以及未來的機器人系統,我們基本上將擁有讓你們成為可能的相同技術,現在徹底改變這些設計堆棧。Synopsys,沒有 Synopsys,你知道,Synopsys 和 Cadence 在芯片設計世界中是完全不可或缺的。Synopsys 在邏輯設計和 IP 方面處于領先地位。
      在 Cadence 的案例中,他們在物理設計、布局布線、仿真和驗證方面處于領先地位。Cadence 在仿真和驗證方面令人難以置信。他們都在進入系統設計和系統模擬的世界。所以在未來,我們將在 Cadence 和 Synopsys 內部設計你們的芯片。我們將在這些工具內部設計你們的系統,并仿真整個過程,模擬一切。
      那就是你們的未來。是的,你們將要在這些平臺內部誕生。很神奇,對吧?所以我們很高興我們正在與這些行業合作,就像我們將 NVIDIA 集成到 Palantir 和 ServiceNow 一樣,我們正在將 NVIDIA 集成到計算最密集的模擬行業——Synopsys 和 Cadence 中。
      今天我們宣布西門子(Siemens)也在做同樣的事情。
      我們將集成CUDA-X,物理AI,Agentic AI,NeMo,NeMo Tron,深度集成到西門子的世界中。原因是這樣的。首先,我們設計芯片,未來所有芯片都將被英偉達加速。你們會對此很高興。我們將有代理芯片設計師和系統設計師與我們合作,幫助我們做設計,就像我們今天有代理軟件工程師幫助我們的軟件工程師編碼一樣。
      所以我們將擁有代理芯片設計師和系統設計師。我們將在這些內部創造你們。但然后我們必須建造你們,我們必須建造工廠,制造你們的工廠。我們必須設計組裝你們所有人的生產線。
      這些制造工廠本質上將是巨大的機器人。不可思議。那是對的嗎?我知道。所以你們將在計算機里設計。你們將在計算機里制造,你們將在計算機里測試和評估,早在你們不得不花任何時間應對重力之前。
      你們知道怎么應對重力嗎?(機器人跳躍)好的,別顯擺了。
      所以,這個使 NVIDIA 成為可能的行業。我很高興現在我們要創造的技術達到了如此復雜的水平和能力,我們可以回去幫助他們為行業提供解決方案。所以,始于他們的東西,我們現在有機會回去幫助他們徹底改變他們的行業。
      讓我們看看我們將與西門子做些什么。來吧。
      視頻解說:
      物理 AI 的突破讓 AI 從屏幕走向我們的物理世界。這恰逢其時,因為世界正在建設各種各樣的工廠,用于芯片、計算機、救命藥物和 AI。隨著全球勞動力短缺的加劇,我們比以往任何時候都更需要由物理 AI 和機器人技術驅動的自動化。
      這就是 AI 與世界上最大的物理產業相遇的地方,是 NVIDIA 和 西門子合作的基礎。近兩個世紀以來,西門子建立了世界的工業,現在它正在為 AI 時代重塑工業。西門子正在整合 NVIDIACUDA-X庫、AI 模型和Omniverse到其 EDA、CAE 和數字孿生工具及平臺的產品組合中。我們將物理 AI 帶入從設計和模擬到生產和運營的整個工業生命周期。我們正站在新工業革命的開端——物理 AI 時代。由 NVIDIA 和西門子為下一個工業時代打造。
      (Vera Rubin平臺發布部分)
      黃仁勛:
      不可思議,對吧,伙計們?你們覺得怎么樣?好的,抓緊了。如果你看世界的模型,毫無疑問 OpenAI 是今天領先的 Token 生成者。OpenAI 生成的 Token 比其他任何都多。第二大群體,第二大可能是開放模型。我的猜測是,隨著時間的推移,因為有這么多公司、這么多研究人員、這么多不同類型的領域和模態,開源模型將是迄今為止最大的。
      讓我們談談一個非常特別的人。你們想那樣做嗎?
      讓我們談談Vera Rubin(薇拉·魯賓)。她是美國天文學家。她是第一個觀察到并注意到星系尾部的移動速度與星系中心差不多快的人。我知道這說不通。牛頓物理學會說,就像太陽系一樣,離太陽越遠的行星繞太陽公轉的速度比離太陽近的行星慢。因此,除非有看不見的物體,否則這是說不通的。她發現了即使我們看不見但也占據空間的暗物質。
      所以 Vera Rubin 是我們以她名字命名下一臺計算機的人。這是個好主意,對吧?我知道。
      Vera Rubin的設計是為了解決我們面臨的這一根本挑戰。AI 所需的計算量正在飆升。對 NVIDIA GPU 的需求正在飆升。這種飆升是因為模型每年增加 10 倍,即一個數量級。更不用說,正如我提到的,o1 的引入是 AI 的一個轉折點。推理不再是一次性的回答,而是一個思考過程。為了教 AI 如何思考,強化學習和非常顯著的計算被引入到后訓練中。這不再只是監督微調(SFT)或模仿學習?,F在有了強化學習,本質上是計算機自己嘗試不同的迭代,學習如何執行任務。因此,預訓練、后訓練、測試時擴展的計算量已經爆炸式增長。
      現在我們做的每一次推理,不再只是一次性的,Token 的數量——你可以看到 AI 在思考,我們對此表示贊賞。它思考得越久,通常產生的答案就越好。所以測試時擴展導致生成的 Token 數量每年增加 5 倍。與此同時,AI 的競賽正在進行。每個人都試圖達到下一個水平。每個人都試圖達到下一個前沿。每當他們達到下一個前沿時,上一代 AI Token 的成本就開始每年下降約 10 倍。每年 10 倍的下降實際上告訴你一些不同的事情,它是說競爭如此激烈,每個人都試圖達到下一個水平,有人正在達到下一個水平。因此,所有這些都是計算問題。你計算得越快,你就能越快達到下一個前沿水平。所有這些事情都在同一時間發生。
      所以我們決定每年都必須推進計算的最先進水平,一年也不能落下。我們一年半前就開始出貨 GB200。現在,我們正在全面制造 GB300。如果 Vera Rubin 要趕上今年,它現在必須已經投入生產。所以今天,我可以告訴你們 Vera Rubin 正在全面生產。
      你們想看看 Vera Rubin 嗎?好的,來吧。請播放。
      視頻解說:
      Vera Rubin恰好趕上AI的下一個前沿。這是我們如何構建它的故事。架構,一個六芯片系統工程化為一個整體。誕生于極端協同設計(Extreme Co-design)。它始于Vera,一個定制設計的CPU,性能是上一代的兩倍。以及Rubin GPU。Vera和Rubin從一開始就協同設計,以更快、更低延遲地雙向和一致地共享數據。
      AI需要快速的數據。ConnectX-9為每個GPU提供1.6 TB/s的擴展帶寬,BlueField-4 DPU卸載存儲和安全。所以計算完全專注于AI。Vera Rubin計算托盤完全重新設計,沒有電纜、軟管或風扇,配備一個BlueField-4 DPU、8個ConnectX-9網卡、兩個Vera CPU和四個Rubin GPU,這是Vera Rubin AI超級計算機的計算構建塊。接下來,第六代NVLink Switch,移動的數據比全球互聯網還多,連接18個計算節點,擴展到72個Rubin GPU作為一個整體運行。然后是Spectrum-6 Ethernet Photonics,世界上第一個具有512通道和200Gbps“共封裝光學(Co-packaged optics)”的以太網交換機。
      將數千個機架擴展成 AI 工廠。自設計開始以來的 15,000 個工程師年。第一個 Vera RubinNVL72 機架上線。六個突破性的芯片,18 個計算托盤,9 個 NVLink 交換機托盤,220 萬億個晶體管,重近 2 噸。向 AI 下一個前沿的巨大飛躍。Rubin 來了。
      黃仁勛:
      你們覺得怎么樣?這是一個Rubin Pod。1152個GPU和16個機架。正如你知道的,每個機架有72個Vera Rubin或72個Rubin。每一個Rubin實際上是兩個GPU晶粒連接在一起。
      “這是一只巨大的怪獸(It's a giant ship)。”
      我們設計了六種不同的芯片。首先,我們在公司內部有一個規則。作為一個好規則,新一代不應該有超過一兩個芯片的變化。但問題是,正如你所見,我們在描述每個被描述的芯片中的晶體管總數。我們知道摩爾定律已經大大放緩。因此,我們每年能得到的晶體管數量不可能跟上大10倍的模型。它不可能跟上每年多5倍的Token生成。它不可能跟上這樣一個事實:Token的成本下降將如此激進,如果行業要繼續進步,除非我們部署積極的極端協同設計,基本上同時在整個系統的所有芯片上進行創新,否則不可能跟上這種速度。這就是為什么我們決定這一代,我們別無選擇,只能重新設計每一個芯片。
      剛才描述的每一個芯片本身都可以開一場新聞發布會,這在過去可能需要一整家公司專門來做。每一個都是完全革命性的,是同類中最好的。
      Vera CPU,我為此感到驕傲。在一個受功耗限制的世界里,Vera CPU的性能是世界上最先進CPU的兩倍。它有88個CPU核心,但使用了“空間多線程”(Spatial Multi-threading)技術,使得176個線程中的每一個都能獲得全性能。
      這是Rubin GPU。它的浮點性能是Blackwell的5倍。但重要的是,看底線,它只有Blackwell晶體管數量的1.6倍。
      我要告訴你們關于當今半導體物理水平的一些事情。如果不做協同設計,如果不做基本上整個系統每個芯片層面的極端協同設計,我們怎么可能提供這種性能水平?因為你只有 1.6 倍的晶體管。即使每晶體管的性能提高一點,比如 25%,也不可能從這些晶體管中獲得 100% 的良率。所以 1.6 倍在某種程度上設定了每年性能提升的上限,除非你做一些極端的事情,我們稱之為極端協同設計。
      我們做的一件事,也是一項偉大的發明,叫做NVFP4 Tensor Core。我們芯片內部的 Transformer 引擎不僅僅是我們放入數據路徑的某種 4 位浮點數。它是一個完整的處理器,一個處理單元,知道如何動態地、自適應地調整其精度和結構以處理 Transformer 的不同層級。這樣你就可以在可能損失精度的地方實現更高的吞吐量,并在需要的地方回到盡可能高的精度。那種動態自適應的能力,你不能在軟件中做,因為顯然運行得太快了。所以你必須在處理器內部自適應地完成。
      這就是 NVFP4。當有人說 FP4 或 FP8 時,這對我們來說幾乎沒有任何意義。原因是這關乎 Tensor Core 結構和使其工作的所有算法。NVFP4,我們已經發表了相關論文。其能夠保留的吞吐量和精度水平完全令人難以置信。這是開創性的工作。如果行業希望我們將這種格式和結構在未來變成行業標準,我也不會感到驚訝。這是完全革命性的。這就是我們能夠提供如此巨大性能提升的原因,即使我們只有 1.6 倍的晶體管。
      我們徹底改變了整個NGX機箱。從兩個小時的組裝時間變成了五分鐘。100%液冷。真正的突破。好的,所以這是新的計算底盤,將所有這些連接到架頂交換機,東西向流量的,叫做Spectrum-X NIC。
      好的,這是新的計算底盤。連接所有這些到機架頂部交換機(東西向流量)的是Spectrum-X 網卡。這是世界上最好的網卡,毫無疑問。NVIDIA 的 Mellanox,很久以前加入我們的 Mellanox,他們用于高性能計算的網絡技術是世界上最好的,無可比擬。算法、芯片設計、所有的互連、運行在上面的所有軟件堆棧。他們的 RDMA 絕對是世界上最好的?,F在它具有進行可編程 RDMA 和數據路徑加速器的能力。這樣我們的合作伙伴(如 AI 實驗室)可以為他們想要如何在系統中移動數據創建自己的算法,但這完全是世界級的。
      ConnectX-9和 Vera CPU 是協同設計的。直到 CX9 出現我們才發布它,因為我們是為一種新型處理器協同設計它的。你知道,ConnectX-9、我們的 CX8 和 Spectrum-X 徹底改變了以太網用于人工智能的方式。
      AI 的以太網流量要密集得多,需要更低的延遲。瞬時的流量激增不同于以太網見過的任何東西。所以我們創造了 Spectrum-X,即AI 以太網。兩年前,我們發布了 Spectrum-X。NVIDIA 今天是世界上最大的網絡公司。
      它如此成功,被用于如此多不同的安裝中。它正在橫掃 AI 領域。性能令人難以置信,特別是當你擁有一個 200 兆瓦的數據中心或吉瓦級的數據中心時,這些都是數十億美元的投資。假設一個吉瓦數據中心價值 500 億美元,如果網絡性能讓你多獲得 10% 的輸出,而在 Spectrum-X 的情況下,提供 25% 更高的吞吐量并不罕見。哪怕我們只提供 10%,那也價值 50 億美元。那網絡就完全是免費的了,這也是為什么大家都在用 Spectrum-X。這真的是個不可思議的東西。
      現在我們要發明一種新型的數據處理方式。所以 Spectrum-X 是用于東西向流量的。我們現在有一個名為BlueField-4的新處理器,允許我們采用一個非常大的數據中心,隔離其不同部分,以便不同用戶可以使用不同部分,確一切都可以虛擬化,如果他們決定虛擬化的話。所以你卸載了大量的虛擬化軟件、安全軟件、南北向流量的網絡軟件。
      BlueField-4 是每個計算節點的標配。BlueField-4 還有我馬上要講的第二個應用。這是一個革命性的處理器,我對此非常興奮。
      這是NVLink 6 Switch,就在這里。這個交換機里面的每個交換芯片擁有歷史上最快的SerDes。世界僅僅剛達到 200 Gbps。這是一個400 Gbps的交換機。這之所以如此重要,是為了讓我們可以讓每一個 GPU 在完全相同的時間與每一個其他 GPU 對話。
      這個位于這些機架背板上的交換機使我們能夠移動相當于全球互聯網數據量兩倍的數據,以兩倍于所有世界互聯網數據的速度。將整個星球互聯網的橫截面帶寬算作大約每秒 100 TB。這是每秒240 TB。所以這讓大家有個概念。這是為了讓每一個 GPU 可以在完全相同的時間與每一個其他 GPU 一起工作。
      好的,在那之上——這是單機架。這是一個機架。如你們所見,這一個機架的晶體管數量是 1.7 倍。是的,你能幫我做這個嗎?這通常大約是 2 噸,但今天有2.5 噸。因為當他們運輸時,忘了把里面的水排干。所以我們從加州運了很多水過來。
      你能聽到它尖叫嗎?當你旋轉 2.5 噸時,它肯定會有點尖叫。你能做到的。好的。我們不會讓你做兩次。
      好的,在這后面是NVLink Spine,基本上是兩英里長的銅纜。銅是我們知道的最好的導體。這些都是屏蔽銅纜,結構化銅纜,是計算系統中有史以來使用最多的。我們的 SerDes 驅動銅纜從機架頂部一直到底部,速度為 400 Gbps。不可思議。
      這總共有兩英里的銅纜,5,000 根銅纜。這使得 NVLink Spine 成為可能。這是真正開啟了 NGX 系統的革命,我們決定創建一個行業標準系統,以便整個生態系統、我們所有的供應鏈都可以標準化這些組件。有大約 80,000 個不同的組件組成了這些 NGX 系統。
      如果每年都改變它,那是完全的浪費。每一個主要的計算機公司,從富士康到廣達,到緯創,名單還在繼續,到 HP、Dell 和 Lenovo。每個人都知道如何構建這些系統。所以盡管性能高得多,而且非常重要的是,功率是原來的兩倍,我們還是能把 Vera Rubin 塞進去。Vera Rubin 的功率是 Grace Blackwell 的兩倍。
      然而,這是奇跡所在——進入其中的空氣、氣流大致相同。非常重要的是,進入其中的水是相同的溫度,45 攝氏度。有了 45 攝氏度的水,數據中心就不需要冷水機組了。我們基本上是在用熱水冷卻這臺超級計算機,效率極高。
      所以這是新機架,晶體管數量增加 1.7 倍,但峰值推理性能增加 5 倍,峰值訓練性能增加 3.5 倍。好的,它們在頂部使用 Spectrum-X 連接。哦,謝謝。
      這是世界上第一個使用臺積電新工藝制造的芯片,這是我們共同創新的工藝,叫做Coupe,是一種**硅光子(Silicon Photonics)**集成工藝技術。這允許我們將硅光子直接連接到芯片上。這是 512 個端口,速度為 200 Gbps。這是新的以太網 AI 交換機,Spectrum-X 以太網交換機。
      看這個巨大的芯片。但真正令人驚奇的是它直接連接了硅光子,激光進入。激光從這里進入。光學器件在這里,它們連接到數據中心的其余部分。這我稍后會展示,但這就在機架頂部。這是新的 Spectrum-X 硅光子交換機。
      好的,我有新東西要告訴你們。正如我幾年前提到的,我們引入了 Spectrum-X 以便我們可以重塑網絡的方式。以太網非常易于管理,每個人都有以太網堆棧,世界上每個數據中心都知道如何處理以太網。當時我們唯一使用的是 InfiniBand,用于超級計算機。InfiniBand 延遲非常低,但當然其軟件堆棧、整個可管理性對于使用以太網的人來說非常陌生。所以我們決定首次進入以太網交換機市場。Spectrum-X 就這樣起飛了,使我們成為世界上最大的網絡公司。
      正如我提到的,下一代 Spectrum 將延續這一傳統。正如我之前所說,AI 已經重塑了整個計算堆棧,計算堆棧的每一層。理所當然地,當 AI 開始在全球企業中部署時,它也將重塑我們進行存儲的方式。AI 不使用 SQL。AI 使用語義信息。
      當使用 AI 時,它會創建這種臨時知識、臨時內存,稱為KV Cache(KV 緩存),即 Key-Value 組合。這是一個 KV 緩存,基本上是 AI 的緩存,AI 的工作記憶。AI 的工作記憶存儲在HBM 內存中。
      對于每一個 Token,GPU 讀取模型,整個模型,它讀取整個工作記憶并產生一個 Token,并將這一個 Token 存回 KV 緩存中。然后下一次它這樣做時,它讀取整個內存,讀取它,并通過我們的 GPU 流式傳輸,然后生成另一個 Token。好吧,它重復這樣做,一個 Token 接著一個 Token。
      顯然,如果你與那個 AI 進行長時間的對話,隨著時間的推移,那個記憶、那個上下文記憶將會極大地增長,更不用說模型在增長,我們使用的 AI 對話輪次在增加。我們希望這個 AI 能伴隨我們一生,并記住我們與它的每一次對話,對吧?我要求它做的每一個研究鏈接。當然,共享超級計算機的人數將繼續增長。因此,這種最初適合放入 HBM 的上下文記憶已經不夠大了。
      去年,我們創造了 Grace Blackwell 的非常快的內存,我們稱之為快速上下文內存。這就是我們將 Grace 直接連接到 Hopper 的原因。這就是我們將 Grace 直接連接到 Blackwell 的原因,以便我們可以擴展上下文內存。但即使那樣也不夠。所以下一個解決方案當然是去網絡上,南北向網絡去公司的存儲。但如果你同時運行很多 AI,那個網絡將不再足夠快。所以答案顯然是做不同的事情。
      所以我們引入了 BlueField-4,以便我們可以在機架中擁有非常快的 KV 緩存上下文內存存儲。我馬上就展示給你們看,這是一種全新的存儲系統類別。業界非常興奮,因為對于幾乎所有今天進行大量 Token 生成的人來說,這是一個痛點。AI 實驗室、云服務提供商,他們真的深受 KV 緩存移動引起的大量網絡流量之苦。
      所以創建一個新平臺、一個新處理器來運行整個 Dynamo KV 緩存上下文內存管理系統,并將其放在離機架其余部分非常近的地方,這個想法是完全革命性的。
      就是它。就在這里。這就是所有計算節點。每一個都是 NVLink 72。所以這是 Vera Rubin,NVLink 72,144 個 Rubin GPU。這是存儲在這里的上下文內存。每一個后面都有四個 BlueField。每個 BlueField 后面有 150 TB 的內存,上下文內存。對于每個 GPU,一旦你分配下去,每個 GPU 將獲得額外的 16 TB?,F在在這個節點內部,每個 GPU 本質上有 1 TB?,F在有了這個直接位于同一東西向流量上的后備存儲,以完全相同的數據速率,200 Gbps 跨越這臺計算節點的整個架構。你將獲得額外的16 TB 內存。好的?這是管理平面。這些是連接所有它們的 Spectrum-X 交換機。在這邊,末端的這些交換機將它們連接到數據中心的其余部分。好的,這就是 Vera Rubin。
      有幾件事真的令人難以置信。首先我提到的是,這整個系統的能源效率是原來的兩倍,本質上是溫度性能的兩倍,也就是說,即使功率是兩倍,使用的能量是兩倍,計算量也比那高出許多倍。但進入其中的液體仍然是 45 攝氏度。這使我們能夠節省大約6% 的全球數據中心電力。這是一件非常大的事情。
      第二件非常大的事情是,整個系統現在是“機密計算安全(Confidential Computing Safe)”的,意味著一切在傳輸中、靜態時和計算期間都是編碼的。并且每一條總線現在都是加密的。每個 PCIe Express、每個 NVLink,CPU 內存和 GPU 之間的 8 個 NVLink,GPU 到 GPU 之間,一切現在都是加密的。所以它是機密計算安全的。這允許公司感到安全,他們的模型由別人部署,但永遠不會被別人看到。
      好的?所以這個特定的系統不僅極其節能,還有一件事令人難以置信。由于 AI 工作負載的性質,它會隨著稱為All-Reduce的計算層瞬間飆升,電流、同時使用的能量真的是爆表的。通常它們會飆升 25%。我們現在在整個系統中擁有**功率平滑(Power Smoothing)**功能,這樣你就不必過度配置?;蛘呷绻氵^度配置了,你不必浪費那 25% 的能量或閑置不用。所以現在你可以填滿整個功率預算,而不必過度配置。
      最后一件事當然是性能。讓我們看看這個的性能。這些圖表只有構建 AI 超級計算機的人才會喜歡。我們花了很大力氣重新設計每一個芯片、每一個系統并重寫整個堆棧才使這成為可能?;旧线@是訓練 AI 模型。
      第一列,你訓練 AI 模型越快,你就能越快將下一個前沿推向世界。這是你的上市時間。這是技術領導力。這是你的定價權。如果是綠色,這是 Blackwell。在 Rubin 的情況下,吞吐量高得多。因此,只需要四分之一的這些系統就能在我們給定的時間內(一個月)訓練模型。這就是 10 萬億參數模型在 100 萬億 Token 上訓練。好的,這是我們對構建下一個前沿模型所需內容的模擬預測。Elon 已經提到下一版本的 Grok 可能是 7 萬億參數。所以這是 10 萬億。在綠色的是 Blackwell。在這里的 Rubin,注意吞吐量高得多。
      第二部分是你的工廠吞吐量(Factory Throughput)。Blackwell 又是綠色的,工廠吞吐量很重要,因為你的工廠,在吉瓦的情況下是 500 億美元。一個 500 億美元的數據中心只能消耗 1 吉瓦的電力。所以如果你的性能、你的每瓦吞吐量很好與很差相比,這直接轉化為你的數據中心收入直接與第二列相關。在 Blackwell 的情況下,它是 Hopper 的 10 倍左右。在 Rubin 的情況下,它將再次高出約 10 倍。
      而在Token成本方面,Rubin大約是Blackwell的十分之一
      這就是我們如何讓每個人到達下一個前沿,將AI推向下一個水平,當然,還有能源高效和成本高效地構建這些數據中心。
      這就是現在的 NVIDIA。你們知道我們制造芯片,但如你們所知,NVIDIA 現在制造整個系統,AI 是全棧的。我們正在重塑 AI 的一切,從芯片到基礎設施,到模型,到應用。我們的工作是創建整個堆棧,以便你們所有人都能為世界其他地方創建令人難以置信的應用程序。
      謝謝大家的到來。祝大家CES愉快。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      德約科維奇發布退賽聲明令人擔憂,身體康復狀況存疑

      德約科維奇發布退賽聲明令人擔憂,身體康復狀況存疑

      網球之家
      2026-01-06 22:35:55
      20年四川14歲少年滿臉紋身被父親趕出家門,找不到工作,如今怎樣

      20年四川14歲少年滿臉紋身被父親趕出家門,找不到工作,如今怎樣

      小熊侃史
      2025-12-25 11:15:02
      又是“秒空”!馬年茅臺下調購買門檻

      又是“秒空”!馬年茅臺下調購買門檻

      國際金融報
      2026-01-07 21:06:47
      YU7新車未出店,后備箱就打不開,車主要退車!小米回應

      YU7新車未出店,后備箱就打不開,車主要退車!小米回應

      都市快報橙柿互動
      2026-01-06 18:17:35
      官媒曝宗慶后私生活,72歲色心不改,網友:被4房姨太太掏空身體

      官媒曝宗慶后私生活,72歲色心不改,網友:被4房姨太太掏空身體

      妙知
      2025-07-18 09:13:12
      若中美開戰,美摧毀北斗衛星,中國將如何應對?4大殺手锏已就位

      若中美開戰,美摧毀北斗衛星,中國將如何應對?4大殺手锏已就位

      春風秋雨
      2025-10-29 19:55:04
      午后突變!貴金屬,全線跳水!

      午后突變!貴金屬,全線跳水!

      證券時報
      2026-01-07 14:55:07
      新華社消息|外交部:沒有哪個國家可以充當國際警察,沒有哪個國家可以自詡為國際法官

      新華社消息|外交部:沒有哪個國家可以充當國際警察,沒有哪個國家可以自詡為國際法官

      新華社
      2026-01-06 17:32:44
      曾揚言讓中國給全世界道歉,慘遭央視開除的阿丘,如今過得怎么樣

      曾揚言讓中國給全世界道歉,慘遭央視開除的阿丘,如今過得怎么樣

      廚房里的神
      2026-01-07 08:27:10
      好萊塢著名影星喬治·克魯尼攜全家入籍法國,特朗普諷刺:他根本不是什么明星!之前兩人就公開“互懟”過

      好萊塢著名影星喬治·克魯尼攜全家入籍法國,特朗普諷刺:他根本不是什么明星!之前兩人就公開“互懟”過

      極目新聞
      2026-01-05 10:25:17
      澳網公布創紀錄獎金池,史上最大獎金提升引發熱議

      澳網公布創紀錄獎金池,史上最大獎金提升引發熱議

      網球之家
      2026-01-06 22:35:27
      “夫妻檔小吃攤年入百萬”引熱議,攤主回應:從未想過一夜暴富和成為“網紅”

      “夫妻檔小吃攤年入百萬”引熱議,攤主回應:從未想過一夜暴富和成為“網紅”

      極目新聞
      2026-01-07 20:00:37
      女子被忽悠打玻尿酸,結果嘴腫成香腸,臉腫成面包!兩年過去還沒恢復...

      女子被忽悠打玻尿酸,結果嘴腫成香腸,臉腫成面包!兩年過去還沒恢復...

      英國那些事兒
      2026-01-07 23:23:19
      3-0,38歲法布雷加斯神了:率隊3連勝,反超尤文圖斯升至第4

      3-0,38歲法布雷加斯神了:率隊3連勝,反超尤文圖斯升至第4

      側身凌空斬
      2026-01-06 23:58:14
      【2026.1.7】爆姐的飯后爆料:生命不止,爆料不息!

      【2026.1.7】爆姐的飯后爆料:生命不止,爆料不息!

      娛樂真爆姐
      2026-01-07 23:18:43
      固態電池一旦量產,現在的電動車全都是垃圾,這話是真的嗎?

      固態電池一旦量產,現在的電動車全都是垃圾,這話是真的嗎?

      小熊侃史
      2026-01-07 11:21:27
      最新消息!追了18天,美國宣布:已在北大西洋扣押俄潛艇護航的油輪,美方人員已登船,現場畫面來了!美國下一目標曝光

      最新消息!追了18天,美國宣布:已在北大西洋扣押俄潛艇護航的油輪,美方人員已登船,現場畫面來了!美國下一目標曝光

      每日經濟新聞
      2026-01-07 23:00:06
      樂福:2018年總決賽第一場!裁判關鍵改判、有利于勇士!

      樂福:2018年總決賽第一場!裁判關鍵改判、有利于勇士!

      氧氣是個地鐵
      2026-01-07 23:21:59
      高速堵到崩潰?2026年新規重磅落地!收費站說再見,這些車免單

      高速堵到崩潰?2026年新規重磅落地!收費站說再見,這些車免單

      老特有話說
      2026-01-06 18:51:26
      于曉光做夢沒想到,韓國總統訪華僅3天,46歲秋瓷炫竟意外火出圈

      于曉光做夢沒想到,韓國總統訪華僅3天,46歲秋瓷炫竟意外火出圈

      素衣讀史
      2026-01-06 16:55:53
      2026-01-08 00:07:00
      華爾街見聞官方 incentive-icons
      華爾街見聞官方
      中國領先的金融商業信息提供商
      139795文章數 2652060關注度
      往期回顧 全部

      科技要聞

      精華!黃仁勛CES記者會:揭秘新款大殺器

      頭條要聞

      委向美移交5000萬桶原油有部分原本銷往中國 中方回應

      頭條要聞

      委向美移交5000萬桶原油有部分原本銷往中國 中方回應

      體育要聞

      賣水果、搬磚的小伙,與哈蘭德爭英超金靴

      娛樂要聞

      《馬背搖籃》首播,革命的樂觀主義故事

      財經要聞

      農大教授科普:無需過度擔憂蔬菜農殘

      汽車要聞

      燃油駕趣+智能電感雙Buff 試駕全新奧迪Q5L

      態度原創

      手機
      親子
      房產
      藝術
      公開課

      手機要聞

      聯想moto X70 Air Pro預約開啟,第五代驍龍8加持

      親子要聞

      用白醋試真假奶粉,靠譜嗎?

      房產要聞

      最新!海口二手房,漲價房源突然猛增30%

      藝術要聞

      David Grossmann:不一樣的風景畫

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 欧美顶级metart祼体全部自慰| 国产精品一区二区av片| 中文字幕第4页| 国产精品爽爽v在线观看无码| 国产99视频精品免费视看9| 亚洲无码精品人妻| 欧美牲交a欧美牲交aⅴ图片| 小泽玛利亚一区| 国产精品爽爽VA在线观看无码| 国产精久久一区二区三区| 国产色a在线观看| 国产高清精品自在线看| 天天躁日日躁狠狠躁av麻豆| 国产精品久久久久乳精品爆| 一本色道久久88精品综合| 久久www免费人成_网站| 中文字幕四区| 国产精品 欧美 亚洲 制服| 性欧美丰满熟妇xxxx性| 97大香| 亚洲成AV人片在线观看麦芽| 少妇高潮喷水久久久久久久久久| 亚欧精品视频| 欧美黑人777| 2020无码专区人妻系列日韩| 亚洲国产亚洲综合在线尤物| 国产在线国偷精品免费看| 秋霞av一区二区三区| 无码AV中文字幕久久专区| 99久久精品无码专区无| 日本丰满熟妇videossex8k| 91精品导航| 欧洲熟妇精品视频| 亚洲国产成人久久精品软件| 亚卅精品| 久久这里只精品国产2| 91洮色| 平乡县| 亚洲精品九九| 亚洲.无码.制服.日韩.中文字幕| 亚洲色一区二区|