未經許可不得轉載,保留原文出處鏈接和公眾號按鈕
![]()
文:天空之城·城主
NVIDIA已經公布了2025年第一季度的收益結果,輕松超越了收益和收入預期。財報之后, #NVDA#這當之無愧的AI時代第一股歷史性突破1000美元。
B站傳送門:【精校】NVIDIA英偉達 25財年第一季度財報電話會及問答完整版【中英】-嗶哩嗶哩】 https://b23.tv/iwuZPho
2025年第一季度財報業績全面優于預期
財報顯示,NVIDIA第一季度每股收益為6.12美元,總收入達到260億美元,超出市場預期14億美元。展望未來,NVIDIA預測2025年第二季度的收入將達到280億美元,高于分析師的預期。此外,NVIDIA還宣布將進行10比1的股票拆分,并將季度現金股息提高150%。公司預計2025財年的毛利率將維持在70%左右。
數據中心業務強勁增長,人工智能和云服務表現突出
NVIDIA在第一季度的亮眼表現主要得益于數據中心業務的強勁增長。數據中心收入同比增長23%,達到226億美元,推動總收入較去年同期增長262%。盡管游戲業務收入下降8%,但NVIDIA在人工智能和云服務領域的出色表現彌補了這一損失。NVIDIA的客戶包括蘋果、微軟、亞馬遜和Facebook等大型科技公司,這些公司對NVIDIA的Hopper GPU計算平臺需求強勁。NVIDIA的人工智能基礎設施已在云服務提供商中得到大規模部署和擴展,其軟件堆棧和生態系統使客戶能夠輕松在公共云中啟動和運行GPU實例。
NVIDIA助力特斯拉等企業客戶,推動人工智能發展
NVIDIA與特斯拉等企業客戶保持著密切合作,支持其擴展人工智能訓練集群,并為最新的自動駕駛軟件FSD版本12提供基礎設施。NVIDIA預計,汽車行業將成為今年數據中心內最大的企業垂直行業。此外,消費者互聯網公司也是NVIDIA的一個強勁增長點,Meta最新推出的大型語言模型Llama3就是在NVIDIA的GPU集群上進行訓練的。
NVIDIA與全球客戶合作,建設AI工廠
NVIDIA正與全球超過100家客戶合作,建設規模從數百到數萬個GPU不等的AI工廠。隨著世界各國對自主AI的投資不斷增加,NVIDIA預計數據中心收入將呈現多樣化趨勢。在日本、法國、瑞士、新加坡等國,NVIDIA正與當地的數字基礎設施提供商合作,建設自主AI基礎設施和超級計算機。NVIDIA提供全方位的計算到網絡技術、全棧軟件、AI專業知識以及豐富的合作伙伴和客戶生態系統,推動主權AI和區域云提供商的發展。NVIDIA預計,主權AI收入今年可以達到數十億美元。
針對中國市場推出新產品,應對出口管制挑戰
面對中國市場的激烈競爭和出口管制的挑戰,NVIDIA推出了專為中國設計的新產品,這些產品不需要出口管制許可證。盡管如此,NVIDIA預計其在中國的數據中心收入將大幅下降。
Hopper GPU架構推動計算收入增長,Grace Hopper超級芯片批量出貨
NVIDIA的Hopper GPU架構推動了大部分計算收入的增長,Hopper的需求持續增長。NVIDIA已經開始對H200進行采樣,預計將在第二季度進行發貨。H200的推理性能是H100的兩倍,這為生產部署帶來了巨大的價值。NVIDIA正在通過持續的軟件優化提高其AI基礎設施的性能,盡管H100的供應有所改善,但H200的供應仍然受到限制。NVIDIA正在努力將其系統和云合作伙伴推向全球,以便在今年晚些時候上市。同時,NVIDIA的Grace Hopper超級芯片已經開始批量出貨,全球有9臺新超級計算機正在使用Grace Hopper。
InfiniBand和SpectrumX推動網絡業務增長
NVIDIA的InfiniBand推動了強勁的網絡同比增長,預計網絡將在第二季度恢復環比增長。NVIDIA在第一季度開始推出針對AI優化的全新SpectrumX以太網網絡解決方案,預計SpectrumX將在一年內成為價值數十億美元的產品線。
推出下一代AI工廠平臺Blackwell,性能大幅提升
NVIDIA在GTC大會上推出了下一代AI工廠平臺Blackwell,其訓練速度比H100快4倍,推理速度比H100快30倍。Blackwell平臺包括第五代NVLink和新的InfiniBand以及以太網交換機X800系列。此外,NVIDIA還推出了新的軟件產品NVIDIA推理微服務(NIMS),它提供了由NVIDIA CUDA加速支持的安全且性能優化的容器。
游戲和專業可視化業務表現穩健,汽車業務增長強勁
NVIDIA的游戲業務收入為26.5億美元,環比下降8%,同比增長18%。NVIDIA的GeForce RTX GPU的安裝基數已超過1億,非常適合游戲玩家、創作者和AI愛好者。專業可視化(ProViz)業務收入為4.27億美元,環比下降8%,同比增長45%。NVIDIA在GTC上宣布了新的Omniverse Cloud API,使開發人員能夠將Omniverse工業數字孿生和模擬技術集成到他們的應用程序中。許多公司正在使用Omniverse數字化工作流程,如制造合作伙伴緯創和電動汽車制造商比亞迪。
在汽車領域,NVIDIA的收入達到了3.29億美元,環比增長了17%,同比增長了11%。這主要得益于全球OEM客戶對AI座艙解決方案的需求增加,以及自動駕駛平臺的強大實力。NVIDIA成功地支持了小米推出其首款電動汽車SU7轎車,該款轎車是基于NVIDIA DRIVE Orin打造的。NVIDIA還宣布了DRIVE Thor的多項新設計,它是Orin的繼任者,采用新的NVIDIA Blackwell架構。多家領先的電動汽車制造商都采用了這款產品,其中包括比亞迪、小鵬、廣汽的IonHyper和Neuralink。DRIVE Thor計劃于明年開始量產。
毛利率擴大,運營費用增加,回報股東78億美元
由于庫存費用的降低,NVIDIA的Gap毛利率環比擴大至78.4%,非Gap毛利率環比擴大至78.9%。環比來看,Gap運營費用增長了10%,非Gap運營費用增長了13%,這主要反映了與薪酬相關的成本增加以及計算和基礎設施投資的增加。在第一季度,NVIDIA以股票回購和現金分紅的形式向股東返還了78億美元。
宣布股票拆分和增加股息,第二季度展望樂觀
NVIDIA宣布對公司股票進行1拆10的拆分,6月10日將是拆分調整后的第一個交易日。NVIDIA還將股息提高了150%。展望第二季度,NVIDIA預計總收入為280億美元,上下浮動2%。NVIDIA預計所有市場平臺都將實現連續增長。預計Gap和非Gap毛利率分別為74.8%和75.5%,上下浮動50個基點。NVIDIA預計全年毛利率將在75%左右。預計Gap和非Gap運營費用分別約為40億美元和28億美元。預計全年運營支出將增長40%左右。預計Gap和非Gap其他收入和支出約為3億美元,不包括非關聯投資的收益和損失。預計Gap和非Gap稅率為17%,上下浮動1%,不包括任何單項項目。
黃教主問答前總結發言 - NVIDIA正在引領新工業革命:
NVIDIA正處于下一場工業革命的開端。各個企業和國家正在與NVIDIA合作,將價值數萬億美元的傳統數據中心安裝基數轉向加速計算,并建設新型數據中心——人工智能工廠,以生產新的商品——人工智能。人工智能將為幾乎所有行業帶來顯著的生產力提升,幫助企業提高成本和能源效率,同時擴大收入機會。
云服務提供商是第一批推動人工智能發展的公司。借助NVIDIA,云服務提供商加速了工作負載,以節省資金和電力。NVIDIA Hopper生成的Token為其人工智能服務帶來了收入。NVIDIA Cloud實例吸引了來自NVIDIA豐富的開發者生態系統的租賃客戶。Hopper平臺上對生成人工智能訓練和推理的強勁且不斷增長的需求推動了NVIDIA數據中心的增長。
生成人工智能正在推動從基礎開始的全棧計算平臺轉變,這將改變每一次計算機交互。從今天的信息檢索模型,NVIDIA正在轉向計算的答案和技能生成模型。人工智能將理解上下文和NVIDIA的意圖,具有知識、推理、計劃和執行任務。NVIDIA正在從根本上改變計算的工作方式和計算機的功能。從通用CPU到GPU加速計算,從指令驅動軟件到意圖理解模型。從檢索信息到執行技能。在工業層面,從生產軟件到生成Token,制造數字智能。
Blackwell平臺已全面投入生產,并為萬億參數級生成人工智能奠定基礎。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、Nixon交換機、高速互連以及豐富的軟件和合作伙伴生態系統相結合,讓NVIDIA能夠擴展并為人工智能工廠提供比前幾代更豐富、更完整的解決方案。
SpectrumX為NVIDIA開辟了一個全新的市場,將大規模人工智能引入僅限以太網的數據中心。NVIDIA NIMS是NVIDIA的新軟件產品,可提供企業級、優化的生成人工智能,可在任何地方的CUDA上運行。通過NVIDIA廣泛的生態系統合作伙伴網絡,從云端到本地數據中心再到RTX人工智能PC。
從Blackwell到SpectrumX,再到NIMS,NVIDIA已經做好準備,迎接下一波增長的到來。
=以下是本次財報的天空之城書面整理版=:
今天電話會議的內容在本次電話會議中,我們可能會根據當前預期做出前瞻性陳述。這些陳述受許多重大風險和不確定性的影響,我們的實際結果可能會大不相同。有關可能影響我們未來財務業績和業務的因素的討論,請參閱今天的收益報告中的披露、我們最新的10-K和10-Q表以及我們可能向美國證券交易委員會提交的8-K表報告。我們所有的聲明都是截至今天(2024年5月22日)根據我們目前掌握的信息做出的。除非法律要求,否則我們不承擔更新任何此類聲明的義務。
在本次電話會議中,我們將討論非GAAP財務指標。您可以在我們的CFO評論中找到這些非GAAP財務指標與GAAP財務指標的對賬,該評論已發布在我們網站上。接下來,我將重點介紹一些即將舉行的活動。6月2日星期日,在臺灣舉辦的Computex技術貿易展之前,Jensen將發表主題演講,該演講將在臺北親自舉行,并進行現場直播。6月5日,我們將在舊金山的美國銀行技術會議上發表演講。在此,我將電話轉給Collette(CFO)。
Collette:
謝謝。
第一季度的業績再次創下了紀錄。收入為260億美元,環比增長18%,同比增長262%,遠高于我們240億美元的預期。從數據中心開始,數據中心收入創下了226億美元的紀錄,環比增長23%,同比增長427%,這得益于對NVIDIA Hopper GPU計算平臺的持續強勁需求。與去年相比,計算收入增長了5倍多,網絡收入增長了3倍多。所有類型的客戶都推動了數據中心的強勁增長,其中企業和消費者互聯網公司表現突出。大型云服務提供商正在持續推動強勁的增長,他們大規模部署并擴展了NVIDIA的人工智能基礎設施,這占據了我們數據中心收入的大約45%。
在NVIDIA的CUDA平臺上進行人工智能的訓練和推理,正在顯著加速云租賃收入的增長,為云服務提供商的投資帶來了即時且強勁的回報。在NVIDIA的人工智能基礎設施上,每投入1美元,云服務提供商就有機會在四年內獲得5美元的GPU即時托管收入。
NVIDIA豐富的軟件堆棧和生態系統,以及與云服務提供商的緊密集成,使得最終客戶可以輕松地在公共云中啟動和運行NVIDIA的GPU實例。對于云租賃客戶來說,NVIDIA的GPU提供了最佳的訓練時間模型、最低的訓練成本模型和最低的推理成本大語言模型。對于公有云提供商來說,NVIDIA將客戶帶到他們的云端,推動了收入增長和基礎設施投資的回報。
領先的大語言模型公司,如OpenAI、ADEPT、Anthropic、Character AI、Cohere、Databricks、DeepMind、Meta、Mistral、XAI等,都在云端構建NVIDIA的人工智能。在本季度,企業推動了數據中心的強勁環比增長。我們支持特斯拉將其訓練人工智能集群擴展到了35,000個H100 GPU。他們對NVIDIA的人工智能基礎設施的使用,為他們最新的基于視覺的自動駕駛軟件FSD版本12的突破性性能鋪平了道路。
視頻Transformer在消耗更多計算資源的同時,顯著提高了自動駕駛能力,并推動了整個汽車行業NVIDIA人工智能基礎設施的顯著增長。我們預計,汽車將成為我們今年數據中心內最大的企業垂直行業,為本地和云消費帶來數十億美元的收入機會。
消費者互聯網公司也是一個強勁的增長垂直行業。本季度的一大亮點是Meta宣布推出其最新的大型語言模型Llama3,該模型在24,000個H100 GPU集群上進行訓練。Llama3為Meta AI提供支持,Meta AI是一款可在Facebook、Instagram、WhatsApp和Messenger上使用的新型人工智能系統。Llama3已公開可用,并已在各行業掀起了人工智能開發浪潮。
隨著生成式人工智能進入更多消費者互聯網應用,我們預計將繼續看到增長機會,因為推理會隨著模型復雜性以及用戶數量和每個用戶的查詢數量的增加而擴展,從而推動對人工智能計算的更多需求。在過去四個季度中,我們估計推理推動了我們數據中心收入的約40%。訓練和推理的需求正在顯著增長。大型集群,例如Meta和Tesla所構建的集群,是AI生產所必需的基礎設施,我們將其稱為AI工廠。這些下一代數據中心是先進的、全棧的、加速的計算平臺,數據從這里輸入,智能從這里輸出。
在第一季度,我們與超過100家客戶合作,建設了規模從數百到數萬個GPU不等的AI工廠,其中一些甚至達到了10萬個GPU。從地域角度來看,隨著世界各國對自主AI的投資,數據中心收入呈現多樣化趨勢。
自主AI是指一個國家利用自己的基礎設施、數據、勞動力和商業網絡生產人工智能的能力。各國正在通過各種模式建設國內計算能力。一些國家正在與國有電信提供商或公用事業公司合作采購和運營自主AI云。其他一些國家正在贊助本地云合作伙伴,為公共和私營部門提供共享的AI計算平臺。
例如,日本計劃向KBDI、Sakura Internet和SoftBank等關鍵數字基礎設施提供商投資超過7.4億美元,以構建該國的自主AI基礎設施。總部位于法國的Scaleway是Iliad Group的子公司,正在打造歐洲最強大的云原生AI超級計算機。在意大利,瑞士電信集團將建造該國第一臺最強大的NVIDIA DTX超級計算機,以開發第一個以意大利語為母語的LLM課程。在新加坡,國家超級計算機中心正在使用NVIDIA Opera GPU進行升級,而新加坡電信正在東南亞各地建立NVIDIA加速AI工廠。
NVIDIA能夠提供端到端計算到網絡技術、全棧軟件、AI專業知識以及豐富的合作伙伴和客戶生態系統,使主權AI和區域云提供商能夠快速啟動其國家的AI雄心。從去年的零到現在,我們相信主權AI收入今年可以達到數十億美元。
AI的重要性引起了每個國家的關注。我們推出了專為中國設計的新產品,這些產品不需要出口管制許可證。我們在中國的數據中心收入與10月份實施新的出口管制限制之前的水平相比大幅下降。我們預計中國市場未來仍將保持非常激烈的競爭。
從產品角度來看,絕大部分計算收入是由我們的Hopper GPU架構推動的。本季度對Hopper的需求持續增長。得益于CUDA算法創新,我們能夠將H100上的LLM推理速度提高多達3倍,這可以轉化為為Llama3等流行模型提供服務的成本降低3倍。我們于第一季度開始對H200進行采樣,目前該產品已在生產階段,預計將在第二季度進行發貨。首個H200系統由Jensen交付給了Sam Altman和OpenAI團隊,上周,該系統為他們的GPT40演示提供了強大的支持。
H200的推理性能幾乎是H100的兩倍,這為生產部署帶來了巨大的價值。例如,使用具有7000億個參數的Llama3,單個NVIDIA HGX H200服務器每秒可以提供24,000個Token,同時支持超過2,400名用戶。這意味著,按照當前每個Token的價格,NVIDIA HGX H200服務器上每花費1美元,提供Llama3 Token的API提供商可以在四年內產生7美元的收入。
我們通過持續的軟件優化,不斷提高NVIDIA AI基礎設施的性能,以服務于AI模型。盡管H100的供應有所改善,但H200的供應仍然受到限制。與此同時,Blackwell已全面投入生產。我們正在努力將我們的系統和云合作伙伴推向全球,以便在今年晚些時候上市。H200和Blackwell的需求遠遠超過供應,我們預計明年需求可能會超過供應。
Grace Hopper超級芯片正在批量出貨。上周在國際超級計算大會上,我們宣布全球有9臺新超級計算機正在使用Grace Hopper,今年交付的節能AI處理能力總計達200倍。其中包括瑞士國家超級計算中心的ALPS超級計算機、歐洲最快的AI超級計算機、英國布里斯托大學的Zombard AI和德國Julek超級計算中心的Jupyter。由于其高能效和性能,我們看到Grace與Hopper在超級計算領域的應用率達到了80%。我們還很自豪地看到,搭載Grace Hopper的超級計算機在全球最節能的超級計算機中分別占據第一、第二和第三的位置。
強勁的網絡同比增長是由InfiniBand推動的。我們經歷了適度的環比下滑,這主要是由于供應時機,需求遠遠超過我們能夠發貨的數量。我們預計網絡將在第二季度恢復環比增長。
在第一季度,我們開始從頭開始推出針對AI優化的全新SpectrumX以太網網絡解決方案。它包括我們的Spectrum4交換機、Bluefield3 DPU和新軟件技術,以克服以太網上AI的挑戰,與傳統以太網相比,為AI處理提供高1.6倍的網絡性能。SpectrumX的銷售額正在與眾多客戶共同增長,其中包括一個擁有100,000 GPU的龐大集群。SpectrumX為NVIDIA網絡開啟了一個全新的市場,使得僅依賴以太網的數據中心也能夠容納大規模的AI。我們預計,SpectrumX將在一年內成為價值數十億美元的產品線。
在三月份的GTC大會上,我們推出了下一代AI工廠平臺Blackwell。Blackwell GPU架構的訓練速度比H100快4倍,推理速度比H100快30倍,并且支持在萬億參數的大型語言模型上實時生成AI。Blackwell是一個巨大的飛躍,其總體擁有成本(TCO)和能耗比Hopper低25倍。
Blackwell平臺包括第五代NVLink(帶有多GPU主干)和新的InfiniBand以及以太網交換機X800系列,這些都是專為萬億參數規模的AI設計的。Blackwell旨在為數據中心提供廣泛的支持,從超大規模到企業級,從訓練到推理,從x86到高性能CPU,從以太網到InfiniBand網絡,從空氣冷卻到液體冷卻。
Blackwell將在發布時用于100多個OEM和ODM系統,這個數量是Hoppers的兩倍多,覆蓋了全球所有主要的計算機制造商。這將支持在第一年的出貨量中,各種客戶類型、工作負載和數據中心環境能夠快速廣泛地采用。Blackwell上市時的客戶包括亞馬遜、谷歌、Meta、微軟、OpenAI、甲骨文、特斯拉和XAI。
我們宣布推出一款新的軟件產品,引入了NVIDIA推理微服務(NIMS)。NIMS在網絡計算和推理軟件(包括Triton推理服務器和TensorRT LLM)中提供由NVIDIA CUDA加速支持的安全且性能優化的容器,以及適用于廣泛用例的行業標準API,包括用于文本、語音、成像、視覺、機器人、基因組學和數字生物學的大型語言模型。
它們使開發人員能夠使用來自NVIDIA、AI21、ADEPT、Cohere、Steady Images和Shutterstock的領先模型,以及來自Google、PluginFace、Meta、Microsoft、Mistral AI、Snowflake和Stability AI的開放模型,快速構建和部署生成式AI應用程序。NIMS將作為我們NVIDIA AI企業軟件平臺的一部分提供,用于生產、在云端或本地部署。
現在,我們將話題轉向游戲和AI PC。游戲業務的收入為26.5億美元,環比下降8%,同比增長18%,這與我們對季節性下降的預期相符。GeForce RTX Super和GPU的市場接受度強勁,整個產品系列的終端需求和渠道庫存保持健康。
自從我們開始AI之旅,我們就為GeForce RTX GPU配備了CUDA Tensor核心。目前,GeForce RTX GPU的安裝基數已超過1億,非常適合游戲玩家、創作者、AI愛好者,并為在PC上運行生成式AI應用程序提供無與倫比的性能。NVIDIA擁有在GeForce RTX PC上部署和運行快速高效的生成式AI推理的完整技術堆棧。
TensorRT LLM已經加速了Microsoft的PHY3 Mini模型和Google的Gemma 2B和7B模型,以及流行的AI框架,包括LangCheng和Llama Index。昨天,NVIDIA和Microsoft宣布了針對Windows的AI性能優化,以幫助在NVIDIA LLM上將LLM的運行速度提高3倍。這是GeForce RTX AI PC的一部分。
包括網易游戲、騰訊和育碧在內的頂級游戲開發商正在采用NVIDIA Avatar Character Engine來創建逼真的化身,以改變游戲玩家和非玩家角色之間的互動。
轉向專業可視化(ProViz)業務,收入為4.27億美元,環比下降8%,同比增長45%。我們相信生成式AI和全宇宙工業數字化將推動下一波專業可視化增長。
在GTC上,我們宣布了新的Omniverse Cloud API,使開發人員能夠將Omniverse工業數字孿生和模擬技術集成到他們的應用程序中。一些全球最大的工業軟件制造商正在采用這些API,包括達索系統、布蘭德和西門子的Antus、Cadence、3DEXCITE。開發人員可以使用它們將工業數字孿生傳輸到空間計算設備(如Apple Vision Pro)。Omniverse Cloud API將于今年晚些時候在Microsoft Azure上推出。
許多公司正在使用Omniverse來數字化他們的工作流程。Omniverse驅動的數字孿生使我們的制造合作伙伴之一緯創將端到端生產周期縮短了50%,缺陷率降低了40%。全球最大的電動汽車制造商比亞迪正在采用Omniverse進行虛擬工廠規劃和零售配置。在汽車領域,我們的收入達到了3.29億美元,環比增長了17%,同比增長了11%。環比增長主要得益于全球OEM客戶對AI座艙解決方案的需求增加,以及我們自動駕駛平臺的強大實力。同比增長則主要源于自動駕駛的發展。
我們成功地支持了小米推出其首款電動汽車SU7轎車,該款轎車是基于我們的NVIDIA DRIVE Orin打造的,這是我們為軟件定義的AV車牌開發的AI車載計算機。我們還宣布了NVIDIA DRIVE Thor的多項新設計,它是Orin的繼任者,采用新的NVIDIA Blackwell架構。多家領先的電動汽車制造商都采用了這款產品,其中包括比亞迪、小鵬、廣汽的IonHyper和Neuralink。DRIVE Thor計劃于明年開始量產。
現在,讓我們來看看損益表的其他部分。由于庫存費用的降低,Gap毛利率環比擴大至78.4%,非Gap毛利率環比擴大至78.9%。如上季度所述,第四季度和第一季度均受益于有利的零部件成本。環比來看,Gap運營費用增長了10%,非Gap運營費用增長了13%,這主要反映了與薪酬相關的成本增加以及計算和基礎設施投資的增加。在第一季度,我們以股票回購和現金分紅的形式向股東返還了78億美元。
今天,我們宣布對公司股票進行1拆10的拆分,6月10日將是拆分調整后的第一個交易日。我們還將股息提高了150%。
接下來,我將談談第二季度的前景。我們預計總收入為280億美元,上下浮動2%。我們預計所有市場平臺都將實現連續增長。預計缺口和非缺口毛利率分別為74.8%和75.5%,上下浮動50個基點,這與我們上個季度的討論一致。我們預計全年毛利率將在75%左右。預計缺口和非缺口運營費用分別約為40億美元和28億美元。預計全年運營支出將增長40%左右。預計缺口和非缺口其他收入和支出約為3億美元,不包括非關聯投資的收益和損失。預計缺口和非缺口稅率為17%,上下浮動1%,不包括任何單項項目。更多的財務細節包含在CFO評論和我們IR網站上提供的其他信息中。
現在,我想把時間交給Jensen,因為他有一些想要發表的評論。感謝您,Colette。當前,我們所處的行業正在經歷一場重大的變革。在我們開始問答環節之前,我想先分享一些關于這場轉型重要性的觀點。
黃仁勛:
我們正處于下一場工業革命的開端。各個企業和國家正在與NVIDIA合作,將價值數萬億美元的傳統數據中心安裝基數轉向加速計算,并建設新型數據中心——人工智能工廠,以生產新的商品——人工智能。人工智能將為幾乎所有行業帶來顯著的生產力提升,幫助企業提高成本和能源效率,同時擴大收入機會。
云服務提供商(CSP)是第一批推動人工智能發展的公司。借助NVIDIA,CSP加速了工作負載,以節省資金和電力。NVIDIA Hopper生成的Token為其人工智能服務帶來了收入。NVIDIA Cloud實例吸引了來自我們豐富的開發者生態系統的租賃客戶。Hopper平臺上對生成人工智能訓練和推理的強勁且不斷增長的需求推動了我們數據中心的增長。
隨著模型學習多模態、理解文本、語音、圖像、視頻和3D并學習推理和計劃,訓練規模不斷擴大。我們的推理工作負載正在以驚人的速度增長。有了生成人工智能,推理(現在涉及大規模快速生成Token)變得非常復雜。
生成人工智能正在推動從基礎開始的全棧計算平臺轉變,這將改變每一次計算機交互。從今天的信息檢索模型,我們正在轉向計算的答案和技能生成模型。人工智能將理解上下文和我們的意圖,具有知識、推理、計劃和執行任務。我們正在從根本上改變計算的工作方式和計算機的功能。從通用CPU到GPU加速計算,從指令驅動軟件到意圖理解模型。從檢索信息到執行技能。在工業層面,從生產軟件到生成Token,制造數字智能。
Token生成將推動人工智能工廠的多年建設。除了云服務提供商之外,生成人工智能已經擴展到消費者互聯網公司和企業、主權人工智能、汽車和醫療保健客戶,創造多個數十億美元的垂直市場。
Blackwell平臺已全面投入生產,并為萬億參數級生成人工智能奠定基礎。Grace CPU、Blackwell GPU、NVLink、Quantum、Spectrum、Nixon交換機、高速互連以及豐富的軟件和合作伙伴生態系統相結合,讓我們能夠擴展并為人工智能工廠提供比前幾代更豐富、更完整的解決方案。
SpectrumX為我們開辟了一個全新的市場,將大規模人工智能引入僅限以太網的數據中心。NVIDIA NIMS是我們的新軟件產品,可提供企業級、優化的生成人工智能,可在任何地方的CUDA上運行。通過我們廣泛的生態系統合作伙伴網絡,從云端到本地數據中心再到RTX人工智能PC。從Blackwell到SpectrumX,再到NIMS,我們已經做好準備,迎接下一波增長的到來。感謝大家。
QnA環節:
感謝Jensen,現在,我們開始進入提問環節。請大家注意,將問題限制在一個范圍內。
伯恩斯坦的(Stacy Raskon:
我想深入了解一下Blackwell的全面投入生產情況。如果該產品已經不再僅僅是樣品,那么這對于發貨和交貨時間又意味著什么?如果現在已經開始生產,那么產品何時能夠真正到達客戶手中呢?
我們已經開始生產一段時間了,但是我們的生產出貨量將在第二季度開始,并在第三季度增加,預計客戶的數據中心將在第四季度建立起來。
明白了,所以我們今年會看到Blackwell的收入,是這樣嗎?
是的,今年我們會看到大量的Blackwell收入。
CBS的Timothy R. Curry:
非常感謝。我想問Jensen關于Blackwell與Hopper的部署情況。考慮到系統的性質和您對GB的所有需求,這些產品的部署與Hopper有何不同?我之所以提這個問題,是因為以前沒有大規模的液體冷卻,而且在節點級別和數據中心內都存在一些工程挑戰。那么這些復雜性是否會延長過渡期,您如何看待這一切的進展?
是的,Blackwell有多種配置。Blackwell是一個平臺,而不僅僅是一個GPU。這個平臺支持風冷、液冷、x86、Grace、InfiniBand、Nell Spectrum X以及我在GTC上演示過的超大NVLink域。因此,對于一些客戶來說,他們將逐步加入已經安裝了Hoppers的數據中心的現有安裝基數。他們將能夠輕松地從H100過渡到H200,再到B100。因此,Blackwell系統的設計在電氣和機械方面都具有向后兼容的特點。當然,運行在Hopper上的軟件堆棧將在Blackwell上完美運行。
我們一直在為整個生態系統做好準備,為液冷做好準備。我們已經與生態系統討論了Blackwell很長時間了。無論是CSP、數據中心、ODM、系統制造商、我們的供應鏈、冷卻供應鏈基礎、液體冷卻供應鏈基礎,還是數據中心供應鏈基礎,沒有人會對Blackwell的到來以及我們希望通過Grace Blackwell 200提供的功能感到驚訝。GB200將表現得非常出色。
美國銀行證券的Vivek Arya:
感謝您回答我的問題。Jensen,我想了解,您如何確保您的產品得到充分的利用,而不會因為供應競爭激烈或其他因素導致搶購或囤積行為?您在系統中建立了哪些檢查機制,讓我們有信心貨幣化能夠跟上您強勁的出貨量增長?
好的,我會從大局出發來回答您的問題。所有的數據中心對GPU的需求都是巨大的,我們每天都在與時間賽跑。這主要是因為ChatGPT和GPT 4.0等應用程序的需求,現在它們將成為多模態和Gemini和Anthropic。所有的云服務提供商都在消耗現有的每一個GPU。此外,還有大量的生成式AI初創公司,大約有15000到20000家,涉及各個領域,從多媒體到數字角色,當然還有各種設計工具應用程序、生產力應用程序、數字生物學。自動駕駛行業正在向視頻轉變,以便他們可以訓練端到端模型來擴展自動駕駛汽車的操作領域。這個名單非常特別。
實際上,我們正在比賽。客戶對我們施加了很大的壓力,要求我們盡快交付系統并使其運行起來。當然,我還沒有提到所有主權人工智能都希望利用其國家的所有區域自然資源(即數據)來訓練其區域模型。建立這些系統的壓力很大。所以無論如何,我認為需求非常非常高,而且超過了我們的供應。
從長遠來看,這就是我跳出來發表一些評論的原因。從長遠來看,我們正在完全重新設計計算機的工作方式。這是一個平臺轉變。當然,它與過去的其他平臺轉變相比。但時間會清楚地證明,這比以前的平臺轉變要深刻得多。原因是計算機不再是僅由指令驅動的計算機。它是一臺理解意圖的計算機。當然,它理解我們與它交互的方式,但它也理解我們的意思,我們想要它做什么,它具有推理、迭代推理以處理計劃并返回解決方案的能力。因此,計算機的每個方面都在發生變化,它不再檢索預先錄制的文件,而是生成與上下文相關的智能答案。這將改變全世界的計算堆棧。
您在Build大會上看到,事實上,即使是PC計算堆棧也將發生革命性的變化。這只是所有事情的開始,您知道,人們今天看到的是我們在實驗室中開展的工作以及我們與世界各地的所有初創公司、大公司和開發商合作的開始。這將是非常了不起的。
摩根士丹利的Joe Moore:
我了解到您對H200和Blackwell產品的需求非常強烈。在您轉向這些產品的過程中,您是否預計Hopper和H100的銷售會暫時停滯?人們是否會等待這些新產品的上市?這些新產品是否會成為優秀的產品,或者您認為H100的需求足以維持其增長?
我們注意到,本季度對Hopper的需求持續增長。我們預計,隨著我們向H200和Blackwell的過渡,需求將在一段時間內超過供應。每個人都急切地希望他們的基礎設施能夠盡快上線,因為這樣可以節省成本并創造收益,他們希望能夠盡快實現這一目標。
高盛的Toshia Hari:
你好,非常感謝您回答這個問題。Jensen,我想詢問一下關于競爭的問題。我注意到您的許多云客戶都在宣布他們現有的內部程序的新版本或更新,這些都是在與您們合作的同時進行的。在中長期內,您在多大程度上將他們視為競爭對手?在您看來,他們是否只是解決大部分內部工作負載,還是在未來有可能解決更廣泛的問題?謝謝。
是的,我們在幾個方面有所不同。首先,NVIDIA的加速計算架構允許客戶處理他們管道的各個方面,從非結構化數據處理到準備訓練,再到結構化數據處理、數據幀處理(如SQL)到準備訓練、訓練、推理。正如我在發言中提到的,推理確實發生了根本性的變化。現在是生成。它不僅僅是試圖檢測貓,這本身就很難,而且它必須生成貓的每一個像素。因此,生成過程是一種根本不同的處理架構。這也是TensorRT LLM如此受歡迎的原因之一。我們在架構上使用相同芯片的性能提高了三倍。這在某種程度上說明了我們架構的豐富性和軟件的豐富性。因此,您可以將NVIDIA用于從計算機視覺到圖像處理、計算機圖形到所有計算模式的所有領域。現在,由于通用計算已經走到了盡頭,世界正遭受計算成本和計算能源膨脹的困擾,加速計算才是真正可持續的發展方式。因此,加速計算是節省計算成本和能源的方法。因此,我們平臺的多功能性使數據中心的TCO最低。
其次,我們在每個云中都有。因此,對于正在尋找開發平臺的開發人員來說,從NVIDIA開始始終是一個不錯的選擇。我們在本地,我們在云端,我們在任何大小和形狀的計算機中。我們幾乎無處不在。這是第二個原因。
第三個原因與我們建立AI工廠有關。人們越來越清楚地認識到,AI不僅僅是芯片問題。當然,一切都始于優秀的芯片。我們為我們的人工智能工廠制造了大量的芯片,但這是一個系統問題。實際上,現在的人工智能也是一個系統問題。它不僅僅是一個大型語言模型,而是由一系列大型語言模型組成的復雜系統,這些模型需要協同工作。因此,NVIDIA構建這個系統的事實促使我們優化所有芯片,使它們能夠作為一個系統協同工作,擁有作為一個系統運行的軟件,并能夠在整個系統中進行優化。
用簡單的數字來說明這一點,如果你有一個價值50億美元的基礎設施,如果你將性能提高了兩倍,這是我們經常做的,那么當你將基礎設施提高兩倍時,對你來說價值就是50億美元。數據中心的所有芯片都無法支付這筆費用。因此,它的價值確實非常非凡。這就是為什么今天性能至關重要的原因。此時,最高性能也是成本最低的,因為承載所有這些芯片的基礎設施成本非常高,而且資助數據中心、運營數據中心、相關人員、相關電力、相關房地產也需要大量資金。所有這些加起來,因此,最高的性能也是最低的總體擁有成本(TCO)。
TD Cowen的Matt Ramsey:
非常感謝,大家下午好。Jensen,我的整個職業生涯都在數據中心行業。我從未見過你們以如此快的速度推出新平臺,同時獲得如此高的性能提升。訓練速度提高了5倍,你在GTC中提到的一些內容在推理速度上提高了30倍。這是一件很神奇的事情,但它也創造了一個有趣的對比:客戶花費數十億美元購買的當前一代產品,其競爭力將遠遠低于新產品,而且貶值速度比新產品的貶值周期快得多。因此,如果您不介意的話,我想請您談談您如何看待這種情況在客戶身上的發展。當您轉向Blackwell時,他們將擁有非常大的安裝基礎,顯然軟件兼容,但安裝基礎龐大的產品性能遠不及新一代產品。聽聽您看到客戶在這條道路上發生了什么,這很有趣。謝謝。
是的,我非常感激。我想提出三點。如果您的建設進度為5%,而如果您的建設進度為95%,您的感受將大不相同。而且由于您只完成了5%,所以無論如何您都要盡可能快地進行構建。而且,當Blackwell到來時,它會非常棒。然后,正如你提到的那樣,在Blackwell之后,我們還會推出其他Blackwell。然后,我們以一年為周期,正如我們向世界解釋的那樣。我們希望我們的客戶能夠看到我們盡可能遠的路線圖,但他們無論如何都處于建設的早期階段。因此,他們必須持續進行建設。
確實如此,大量的芯片將會向他們涌來。他們需要繼續建設,如果你愿意,可以選擇以平均性能的方式進入。這無疑是一個明智的選擇。他們需要在今天就開始盈利,同時也希望能夠節省開支。對他們來說,時間的價值實在是無法估量。
讓我給你舉一個例子來說明時間的重要性。這就是為什么建立即時數據中心的想法如此有價值,以及為何獲得所謂的訓練時間如此重要。原因在于,下一家達到重大平臺的公司可以宣布一項突破性的人工智能。而緊隨其后的第二家公司則可能只能宣布一項改進了0.3%的成果。
所以問題在于,你是想成為一個不斷提供突破性人工智能的公司,還是一個只能提供0.3%改進的公司?這就是為什么這場競賽,就像所有的技術競賽一樣,如此重要。你會看到這場競賽涉及到多家公司,因為擁有技術領導力至關重要。公司需要信任領導力,想要在你的平臺上構建,并知道他們正在構建的平臺會越來越好。因此,領導力至關重要。
訓練時間也同樣重要。訓練時間的關鍵在于,能否提前三個月完成一個為期三個月的項目,提前開始是最重要的。這就是為什么我們現在正在瘋狂地建立漏斗系統,因為下一個平臺就在眼前。
這是第二個原因。你提出的第一個評論確實很棒,那就是,我們為什么能夠如此快速地發展和進步?因為我們擁有所有的堆棧。我們實際上構建了整個數據中心,我們可以監控一切、衡量一切、優化一切。我們知道所有瓶頸在哪里,我們不會對此進行猜測。我們不會只是制作看起來不錯的 PowerPoint 幻燈片。
實際上,我們也希望我們的 PowerPoint 幻燈片看起來不錯,但我們提供的是可大規模執行的系統。我們之所以知道它們可大規模執行,是因為我們在這里構建了一切。
現在,我們所做的一件有點神奇的事情是,我們在這里構建了整個 AI 基礎設施,然后我們將其分解并集成到客戶的數據中心中,無論他們喜歡什么。但我們知道它將如何執行,我們知道瓶頸在哪里。我們知道需要在哪里與他們一起優化,也知道在哪些方面需要幫助他們改善基礎設施以實現最佳性能。這種對整個數據中心規模的深入、細致的了解從根本上使我們今天與眾不同。
我們從頭開始構建每一個芯片。我們確切地知道整個系統的處理過程。因此,我們確切地了解它將如何執行以及如何在每一代中最大限度地利用它。所以我很感激。這就是三點。
Evercore ISI 的 Mark Lopakis:
你好,感謝您回答我的問題。Jensen,過去,您曾觀察到通用計算生態系統通常主導每個計算時代。我堅信,通過適應不同的工作負載,我們可以提高利用率,降低計算周期的成本。這也是我推動通用圖形處理器(GPU)CUDA生態系統進行加速計算的動機。如果我對這個觀察有誤解,請糾正我。
所以,我有一個問題。考慮到推動您解決方案需求的工作負載主要是由神經網絡訓練和推理驅動的,從表面上看,這似乎是有限數量的工作負載,那么它似乎也適合定制解決方案。那么,通用計算框架是否會變得更危險?或者,這些工作負載是否有足夠的變化或足夠快速的演變來支持歷史通用框架?謝謝。
是的,這些加速計算是多功能的,但我不會稱其為通用。例如,我們并不擅長運行電子表格,這實際上是為通用計算設計的。因此,操作系統代碼的控制循環可能不適合通用計算,也不適合加速計算。所以,我會說我們是多功能的,這通常是我描述它的方式。
多年來,我們能夠加速的應用領域非常豐富,但它們都有很多共同點。也許有一些深刻的差異,但都是共同點。它們都是我可以并行運行的東西。它們都是高度線程化的。例如,5% 的代碼代表了 99% 的運行時間。這些都是加速計算的屬性。
我們平臺的多功能性以及我們設計整個系統的事實,是在過去 10 年左右的時間里,你們在這些電話會議中詢問我的初創公司數量相當多的原因。由于它們架構的脆弱性,每當生成式人工智能出現,或者當擴散模型出現時,下一個模型就會出現。現在,突然間,看看這個,具有內存的大型語言模型。因為大型語言模型需要有記憶,這樣它們才能與你進行對話,理解上下文。突然之間,Grace 內存的多功能性變得非常重要。
因此,生成式人工智能和人工智能發展中的每一個進步都要求不要只為一個模型設計一個部件,而要有一個真正適合整個領域、整個領域的屬性但又遵循軟件第一原則的東西。該軟件將繼續發展。該軟件將不斷變得更好、更大。我們相信這些模型的擴展。有很多理由可以解釋為什么我們將在未來幾年內輕松擴展一百萬倍,我們對此充滿期待,并為此做好了準備。
因此,我們平臺的多功能性確實非常關鍵,而且它不是……如果你太脆弱、太具體,你不妨只構建一個 FPGA 或 ASIC 或類似的東西,但這幾乎不能算作計算機。
Jeffries 的 Blaine Curtis:
謝謝你回答我的問題。我其實有點好奇。由于供應受限,您如何看待……您為中國推出了一款 H20 產品。我預設了該產品的需求量會很大,但顯然您正在嘗試使用其他Hopper產品來滿足您的客戶需求。我對您如何規劃下半年的業務感到好奇,如果您能詳細說明任何可能的影響,以及您對銷售和毛利率的看法,我將不勝感激。我沒有聽到您的問題,有些聲音似乎消失了。我想了解H20以及您如何在不同的Hopper產品之間分配供應。
我們尊重每一位客戶,并致力于為他們提供最優質的服務。實際上,我們在中國的業務規模已經遠低于過去。由于我們技術的限制,現在在中國的競爭更加激烈。盡管如此,我們將繼續盡最大努力為那里的客戶和市場提供服務,并盡我們最大的努力做到最好。但我認為總體而言,我們關于需求超過供應的評論是針對整個市場,尤其是年底的H200和Blackwell。
Raymond James的Sreeni Pazhuri:
Jensen,我需要您進一步澄清一下您的觀點。GP200系統,看起來對系統的需求很大。從歷史上看,我認為您已經銷售了很多HGX主板和一些GPU,而系統業務相對較小。所以我很好奇,為什么現在您看到對系統的需求如此強勁?這只是TCO還是其他原因,還是只是架構?謝謝。
是的,我很感激。實際上,我們銷售GP200的方式是一樣的。我們將所有有意義的組件分解,并將其集成到計算機制造商中。今年,我們將為布萊克威爾提供100種不同的計算機系統配置。這超出了預期。坦率地說,Hopper只擁有一半的市場份額,但那已經是巔峰了。它一開始的市場份額甚至比這還要少。所以你會看到液冷版本、風冷版本、x86版本、grace版本等等。正在設計的系統種類繁多。它們由我們所有優秀的合作伙伴生態系統提供。實際上什么都沒有改變。
現在,當然,Blackwell平臺極大地擴展了我們的產品范圍。CPU的集成和更緊湊的計算密度、液冷將為數據中心節省大量的電力配置成本。更不用說更節能了。所以這是一個更好的解決方案。它更具擴展性,這意味著我們提供更多的數據中心組件。每個人都是贏家。數據中心的性能得到了提高。網絡,從網絡交換機到網絡,當然還有NIC。我們現在有了以太網,這樣我們就可以將NVIDIA AI大規模地帶給那些只知道如何操作以太網的客戶,因為他們擁有生態系統。因此,Blackwell的擴展性更強。在這個時代,我們為客戶提供了更多的服務和產品。
Truist Securities的William Stein:
Jensen,有一段時間,盡管市場上有相當優秀的CPU可供數據中心運營,但NVIDIA決定,基于ARM的Grace CPU提供了一些真正的優勢,使得這項技術值得交付給客戶,這可能與成本有關,或者與Grace和Hopper或Grace和Blackwell之間的功耗或技術協同作用有關。您能否談談在客戶端是否可能出現類似的情況,即盡管有非常好的解決方案,但您強調英特爾和AMD是非常好的合作伙伴,并在x86中提供出色的產品。但可能也有一些優勢,特別是在新興的AI工作負載中,NVIDIA可以提供一些優勢,而其他公司則面臨更大的挑戰。
您提到了一些非常好的理由。確實,對于許多應用程序而言,我們與x86的合作,我們的x86合作伙伴確實非常棒,我們共同構建了出色的系統。但Grace使我們能夠做一些在今天的配置、系統配置下不可能做到的事情。Grace和Hopper之間的內存系統是連貫且連接的。兩個芯片之間的互連,稱之為兩個芯片幾乎很奇怪,因為它就像一個超級芯片。它們兩個通過這個接口連接。這相當于每秒1TB。這超出了圖表。Grace使用的內存是LPDDR。這是第一個數據中心級低功耗內存。因此,我們在每個節點上節省了大量電量。
最后,由于架構的原因,因為我們現在可以用整個系統創建自己的架構,我們可以創建具有非常大的NVLink域的東西,這對于下一代大型推理語言模型至關重要。所以你看到GB200有一個72節點的NVLink域。這就像72個Blackwell連接在一起形成一個巨大的GPU。所以我們需要Grace Blackwell才能做到這一點。因此,有架構原因,有軟件編程原因,然后有系統原因,這些對于我們以這種方式構建它們至關重要。所以如果我們看到這樣的機會,我們會探索它。
今天,正如你在昨天的構建中看到的,我認為這真的很棒,Satya宣布了下一代PC,Copilot Plus PC,它在筆記本電腦中出貨的NVIDIA RTX GPU上運行得非常出色。但是,它也很好地支持ARM。因此,它為系統創新,甚至為個人電腦創新開辟了機會。
Candor Fitzgerald的CJ Mews:
下午好。我想,Jensen,這是一個長遠的問題。我知道Blackwell還未發布,但顯然投資者都是有遠見的,他們面臨著來自GPU和定制ASIC的潛在競爭。您如何看待NVIDIA未來的創新速度?過去十年,您的規模擴大了數百萬倍,這確實令人印象深刻。CUDA、稀疏性、精度、優雅性、連貫性和連通性。展望未來,未來十年需要解決哪些摩擦?我想也許更重要的是,您今天愿意與我們分享什么?
好的,我可以宣布,繼Blackwell之后,我們還有另一款芯片在研發中。我們正處于一年一個新產品的節奏中。您可以期待我們將以非常快的速度推出新的網絡技術。我們已經宣布推出用于以太網的Spectrum X。我們全力投入以太網的研發,我們有一個令人興奮的以太網路線圖。我們擁有豐富的合作伙伴生態系統,戴爾已經宣布他們將把Spectrum X推向市場。我們擁有豐富的客戶和合作伙伴生態系統,他們將宣布把我們的整個AI工廠架構推向市場。
因此,對于那些想要獲得最高性能的公司,我們有InfiniBand計算結構。InfiniBand是一種計算結構,以太網是一種網絡。多年來,InfiniBand最初是一種計算結構,后來成為一種越來越好的網絡。以太網是一種網絡,借助Spectrum X,我們將使其成為一種更好的計算結構。我們全力投入到這三個環節:用于單個計算域的NVLink計算結構、InfiniBand計算結構、以太網網絡計算結構。因此,我們將以非常快的速度推動這三個方面的發展。
因此,您將看到新的交換機、新的網絡接口卡(NIC)、新功能以及在這三個方面運行的新軟件堆棧。新的CPU、新的GPU、新的網絡NIC、新的交換機,大量新的芯片即將問世。所有這些,最美妙之處在于它們都運行CUDA。所有這些都運行我們的整個軟件堆棧。所以,如果你今天投資我們的軟件堆棧,不用做任何事情,它就會變得越來越快。如果你今天投資我們的架構,不用做任何事情,它就會進入越來越多的云和越來越多的數據中心。一切都會運行。
所以,我認為我們帶來的創新步伐一方面會提高能力,另一方面會降低總體擁有成本(TCO)。因此,我們應該能夠利用NVIDIA架構來擴展這個新的計算時代,并開啟這場新的工業革命,我們不僅制造軟件,還制造人工智能Token。我們將在大規模上實現這一目標。
感謝您的參與。至此,我們今天的問答環節和電話會議就此結束。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.