日前,有X博主發文表示,OpenAI目前最強的大模型GPT-5是使用英偉達H100/H200芯片訓練的,用GB200 NVL72進行推理,而并未用上更強大的B200芯片。
![]()
其消息援引自英偉達亞太區官方賬號于今年8月的一條X推文,內容曝光了 OpenAI GPT-5 背后的硬件支撐細節,根據 NVIDIA Asia Pacific 發布的內容,GPT-5 的訓練環節并未采用最新的 B200—— 其訓練依賴的是 NVIDIA H100 和 H200 GPU;而在推理部署階段,則用上了 NVIDIA GB200 NVL72 系統。
![]()
這個 GB200 NVL72 系統配置相當 “豪華”:它搭載了 72 個 Blackwell 架構 GPU,還搭配了 36 個 Grace CPU,整套系統靠 NVIDIA 的 NVLink 及 NVLink Switch 計算架構連接,專門適配大規模的頂尖 AI 運算需求。
同時這條動態也明確了一個信息:目前市面上還沒有任何模型,是通過 B200 訓練生成的。
![]()
英偉達的 B200(基于 Blackwell 架構)是比 H100(Hopper 架構)和 H200(Hopper 的升級版)更強大的芯片,尤其是在 AI 訓練和推理方面。
B200 支持更低精度 FP4 和 FP6,并在 FP4 情況下能達到 ~20 PFLOPS 的推理算力,是 H100 ~4× 的峰值表現。H100 主要優化 FP8,但在這些超低精度場景下算力不及 B200。
B200 擁有 192 GB HBM3e 以及 ~8 TB/s 內存帶寬,顯著超過 H100/H200。H200 雖然比 H100 內存大(~141 GB),但在規模、帶寬與性能上仍落后于 B200。
此外,在多卡互聯方面,B200 使用更先進的 NVLink 5(~1.8 TB/s),提升大規模分布式訓練效率。
當然,并不是說用上B200來訓練大模型,就一定比H100/H200訓練的大模型“必然更強”,但它能讓訓練更便宜、更快,并支持更大的模型規模和更多訓練迭代,因此在同樣的技術路線下,大概率會帶來更強的大模型。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.