作者|王兆洋
wangzhaoyang@pingwest.com
在GTC2026第二天,我們參與了一場與黃仁勛的集體問答,他回答了多個關鍵問題。
包括萬億美金指引,新Groq的融合,以及AI會讓人如何改變等。當然,還包括許多關于OpenClaw的問題。
![]()
另外,硅星人也在會后找到黃仁勛問了一個簡單問題。
硅星人:似乎今天的問答里,沒人討論開源模型了。
黃仁勛:怎么會。
硅星人:不是都在討論OpenClaw嘛。
黃仁勛:哦對,是的。
硅星人:Deepseek在走紅之前,他們其實也來GTC分享過。今年我看Kimi的楊植麟來分享了。
黃仁勛:是的。
硅星人:你怎么看剛才提到的OpenClaw這些變化。以及如果可以,中國的開源模型們和英偉達的互動和關系簡單點評一下?
黃仁勛: OpenClaw 連接了所有的公有云 API。嗯,但你也可以連接到開源模型,對吧?所以,我認為這實際上會加速開源模型的使用。("OpenClaw connects to all the public cloud APIs. Um, but you can also connect to open models, right? So I think that it’s actually going to accelerate use of open models.”)
(他回答了關于OpenClaw的對比,但沒有回答關于與中國的開源模型公司之間今天的交流情況的問題)
![]()
以下為對話QA核心實錄
關于萬億美金的指引
黃仁勛澄清,1 萬億僅包含 Blackwell 和 Vera Rubin 架構到 2027 年的訂單,因為去年GTC的PPT里也是這個口徑。所以這是個相當“簡單且保守”的數(shù)字(未計入 CPU、存儲等)。
他還透露,隨著營收加速增長,英偉達在 2026 年將 50% 的自由現(xiàn)金流用于回購和派息,同時加大對生態(tài)系統(tǒng)的戰(zhàn)略投資。
關于財務風險與投資
黃仁勛被問到,他們越來越多地幫助客戶(如 Coreweave、Nebius 等)融資擴建數(shù)據(jù)中心,如何管理其中的財務風險?
黃仁勛認為英偉達擁有“信息優(yōu)勢”,能看到訂單流和需求管道,因此只投資那些注定會成功的“全壘打”企業(yè)。會找到下一個Google和meta。同時,通過注資幫助生態(tài)系統(tǒng)快速擴容,這不僅是財務投資,更是為了確保全球計算需求的供應敏捷性。
黃仁勛也解釋了對 Coherent、Momentum(光模塊/硅光子相關)以及 Nebius(云服務)等公司的數(shù)億美金投資。在上游(Supply Chain),為了應對未來 2-5 年對硅光子(Silicon Photonics)和 NVLink 產(chǎn)能的巨大需求,英偉達通過預付款、提供預測甚至直接投資的方式,幫助供應商提前建立產(chǎn)能。對于下游(Partnerships),投資像 Nebius 這樣的公司是為了確保下游有足夠的 GPU 上架容量和開發(fā)者生態(tài),確保英偉達的 Token 最終能被終端用戶消耗。
關于軟件公司會消失
“散戶們錯了。”
他舉了Synopsys(新思科技)、Cadence(楷登電子)的例子,他們業(yè)務的瓶頸在于“坐在位子上的工程師數(shù)量(Butts on seats)”。工程師的人數(shù)是有限的。如果有更多的工程師,他們就會授權更多的工具。如果有更多的水管工,你就能賣出更多的工具;如果有更多的木匠,你就能賣出更多的工具。
關于云業(yè)務模式
在我們 60% 的業(yè)務中(指云端業(yè)務),不管是 40% 還是 50%,很大一部分本質上是“英偉達帶來的業(yè)務”,其余的才是他們(云服務商)的內(nèi)部消耗。
舉例來說,如果沒有英偉達,OCI(甲骨文云)怎么可能為 OpenAI 提供服務?他們的整個技術棧都是建立在 Kubernetes 之上的。因此,是我們把 OpenAI 帶到了 OCI。
還有很多其他的例子。如果不是因為 Anthropic 今年將基于 英偉達 構建,我們又怎么能把 Anthropic 帶到 Azure(微軟云)呢?那絕對會大獲成功。這邏輯明白了嗎?
所以,我們在云服務商那里的很多業(yè)務,實際上是由英偉達創(chuàng)造的業(yè)務。所有的云服務商都知道,我們與他們有著極佳的營銷和業(yè)務合作伙伴關系,是我們把客戶帶給他們的。
![]()
關于OpenClaw
黃仁勛很重視OpenClaw,他自己分享了一個用它來重新設計它的廚房的案例。認為它的學習和形成skill的能力很棒。
他認為 o1 帶來了推理拐點,而 OpenClaw 則帶來了 AI Agent 的普及拐點。
英偉達要做的是,為了解決開源代理的安全性、治理和隱私問題,推出 Nemo Cloud,作為企業(yè)部署 AI 代理的高性能、安全“藍圖”。
關于推理
在對話里,黃仁勛被“質疑”是否在推理(Inference)市場反應遲鈍,他表示,他是“推理之王”,這是別人給他的稱號。
他強調(diào)早在 2024 年底到 2025 年,公司就通過 NVLink 72、FP4 數(shù)值格式以及 Dynamo 架構確立了推理領域的領導地位。NVLink 72 帶來了 35 倍的性能提升,成本僅為原來的五十分之一,功耗效率提升了 50 倍。他類比 iPhone 和顯卡系列,指出推理市場正在細分。從基礎的免費模型到 o1/o3 等具備推理能力的模型,再到 Claude Code 等代理工具,不同層級對應不同的計算需求
![]()
關于Groq
關于Vera Rubin 與 Groq,黃仁勛提出了一個新的高性能推理標準:大模型 + 超長上下文 + 極低延遲。
他提到英偉達的 Vera Rubin 架構是核心,但在特定高速度需求下,結合 Groq(此處指代其 LPU 或特定加速技術)可以實現(xiàn)三者兼顧。市場配比:他預測未來數(shù)據(jù)中心約 25% 的工作負載會是“Rubin + Groq”的組合,而剩下的 75% 仍由 Rubin 獨立完成。
![]()
關于 CPU
在超算/云端,傳統(tǒng) CPU 競爭的是“單核成本”;但黃仁勛認為,AI 時代的核心是“工作負載(Work)”而非單純的核數(shù)——用戶擁有價值 500 億美金的 GPU 集群,絕不能因為 10 億美金的 CPU 性能不足而閑置。因此,英偉達的 CPU(如 Grace)是專為加速工作流設計的,確保 GPU 始終滿載運行。
Vera Rubin、存儲和網(wǎng)絡架構全都是為了 “代理型工作負載(Agentic Workload)” 深度優(yōu)化的。
一個彩蛋:3D 堆疊與晶圓廠
當被問及 3D 芯片堆疊和具體封裝技術時,黃仁勛笑稱:
“如果我現(xiàn)在全告訴你了,明年你還來 GTC 干什么?”
以及,關于AI給人帶來的改變
“很多人說 AI 來了,我們要沒活干了,失業(yè)了。事實恰恰相反。個人電腦讓我們更忙,互聯(lián)網(wǎng)讓我們更忙,移動設備也讓我們超級忙。
AI 將以極快的速度完成任務……以前你寫好產(chǎn)品規(guī)格,團隊拿去開發(fā)一個月,這期間你可以干點別的,生活很悠閑。現(xiàn)在,那個‘月’變成了 30 分鐘。你始終處于(決策的)關鍵路徑上。
我今天在英偉達的感受是,它讓我比以往任何時候都忙……原因在于工作結果反饋給我的速度變快了,項目的數(shù)量也增長得快得離譜。
你上一次坐在門廊的搖椅上,喝著一杯檸檬水,看著太陽落山是什么時候? 我不記得上一次的情況了,只記得大約100年前在電影里看到過。 你知道的, 因此我們比以往任何時候都要忙碌。 因此,我認為這一趨勢很可能會持續(xù)下去。
![]()
關于英偉達的組織會如何變化
我們將會超級忙碌。在十年內(nèi),我們希望——也將會擁有——大約 7.5 萬名員工。
(公司的規(guī)模)只保持在盡可能小的程度,但也達到必要的規(guī)模。這 7.5 萬名員工將與 750 萬個 AI 代理(Agents)協(xié)同工作。
這些代理將全天候工作。希望我們的員工不需要(為了趕進度)而試圖跟上這些代理的節(jié)奏,我也確信這種(人類過度勞累的)情況不會發(fā)生。這就是未來。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.