![]()
新智元報道
編輯:好困 桃子
【新智元導讀】在工業界動輒十萬卡的暴力美學面前,學術界正淪為算力的「貧民窟」。當高校人均不足0.1張卡時,AI科研的主導權之爭或許已經沒有了懸念。
學術界的GPU荒,比想象中還要嚴重百倍!
NeurIPS 2025期間,兩位YC大佬組了個飯局,邀請14位美國頂尖高校實驗室的教授。
沒想到,席間很多人都在吐槽:學術界算力資源簡直「慘不忍睹」!
![]()
出于好奇,Francois Chaubard就去扒了一下數據,得到的結果離譜到家.....
![]()
以下是美國頂尖大學實驗室的情況——
· 普林斯頓:人均0.8張GPU
· 斯坦福:人均0.14張GPU(超算集群Marlowe僅有248張H100可用)
· 哈佛、UW、CMU:均在0.2-0.4張GPU之間
· 加州理工、MIT、UC伯克利:連0.1張GPU也達不到
如今,想要做點像樣的AI研究,人均至少得有1張GPU。實話說,真正要做起來,起碼8張才夠用。
![]()
沒有對比,就沒有傷害。
此時此刻,全球頂尖大廠的前沿實驗室動輒就是十萬張GPU起步。
就拿微軟的Fairwater Atlanta數據中心來說,它目前的算力每個月能跑23次GPT-4規模的訓練。
換句話說,當年訓練初代GPT-4花了90到100天,同樣的時間放在這里,大概能把這個過程跑上70次。
有了這種巨型數據中心,實驗室就能大幅提升前期實驗和最終模型訓練的規模與頻次。
![]()
到2026年底,馬斯克的Colossus 2很可能會把這些數字翻上一番都不止。
而到了2027年底,微軟的Fairwater Wisconsin預計單月就能完成超過225次GPT-4規模的訓練任務。
![]()
馬斯克xAI正在百萬張GPU串聯的超級巨獸「Colossus 2」訓練Grok 5
學術GPU太缺了
2024年李飛飛在一場爐邊談話中坦言,「斯坦福NLP實驗室僅有64張GPU」。
學術界在AI計算資源方面,正面臨斷崖式下跌。
與此同時,Nature一篇調查提出了「AI算力差距」,揭示了同樣令人扎心的現實:
想要訓練AI模型,學術界科學家能用的計算資源,跟工業界完全不是一個量級。
![]()
如上開篇一些數據,恰恰從側面印證了,高校GPU根本不足以開展大規模的AI實驗。
這種現象,不管在美國,還是國內,基本大差不差。
在Reddit上一篇熱帖中,一位博士生自曝沒有H100,算力成為了項目展開的主要瓶頸。
![]()
不僅如此,在Uvation調研中,GPU在高校課程和教學中也越來越重要,正在重塑學生學習計算機科學、工程學的方式。
如下表所示,斯坦福、MIT、牛津大學需要使用GPU相關的課程。
![]()
學術界GPU荒可不是小事,它的影響會像多米諾骨牌一樣擴散開來。
杜克大學陳怡然教授曾提到一點,因為工業界和學術界計算、數據資源差距拉大,AI科研人員不再把高校教職當做目標。
這也就意味著,頂尖人才未來會加速流向工業界,全因GPU不夠。
![]()
另一方面,學術界因GPU有限難以驗證big idea,正逐漸失去了定義前沿的能力。
2025年斯坦福AI指數報告中,一張圖清晰地呈現了這一趨勢。
谷歌、Meta、微軟、OpenAI等科技巨頭產出有影響力的AI模型數量遠超學術界。
![]()
AI大牛Sebastian Raschka表示,資源少只是問題之一。
另一個問題是,這些資源通常只能通過 SLURM(或類似的調度系統)訪問,根本沒有交互模式。
除非你已經完全清楚要跑什么實驗以及要跑多久,否則這一套流程走下來簡直折磨人。 這種條件下做研究真是太難了。
![]()
此外,學校里的那些GPU不是隨時能用的。
網友Lucas Roberts表示,自己上個月曾跟德州的一位教授聊過,他說學校的 GPU 一次最多只能跑24小時,時間一到就得保存進度(checkpoint),然后重新排隊跑下一個任務。
后來他好不容易給實驗室搞到經費買了幾張卡,這才實現了跑任務「不斷連」。
據他所知,這種24小時強制中斷的規定在其他高校也挺普遍的。
![]()
然而,LeCun當場反駁這一觀點,透露NYU是全美所有學術機構中,擁有最大規模的GPU集群。
具體數字——500張H200,比普林斯頓還要大。
![]()
有的高校,自建AI工廠
不過,也有一些高校條件會好一些。
微軟研究院前高級研究員,威廉與瑪麗學院助理教授Jindong Wang表示,實驗里每位學生配備6張GPU,還有云集群可用。
![]()
Vector研究所研究總監,多倫多大學統計與計算機系教授Dan Roy表示,他們會給每位學生都配備1張GPU。
![]()
更豪氣的學校,比如得克薩斯大學奧斯汀分校,直接為自家的AI基礎設施購買了超過4000張Blackwell GPU。
加上原有的設備,UT Austin總共將擁有超過5000張英偉達GPU。
而且,據稱還是由他們自己的發電站來提供加持。
![]()
這些英偉達GB200系統和Vera CPU服務器,將加入全美最大的學術超算「Horizon」,為UT Austin提供學術界最強悍的AI算力。
這種級別的算力意味著,UT Austin完全有能力從零構建開源的大語言模型。
![]()
無獨有偶,加州州立理工大學也在啟動一個由英偉達DGX加持的「AI工廠」——
它配備了4套NVIDIA DGX B200系統,并整合了高性能存儲、網絡設施以及NVIDIA的全套AI軟件棧。
![]()
有了這套系統,那些以前在標準硬件上需要數月才能完成的研究任務,例如分析數十萬個視頻文件,現在只需幾天即可完成。
![]()
反觀國內,GPU在高校的分布情況也不均衡。
知乎上一個話題下,碩博生紛紛討論做實驗用的顯卡。
![]()
北京某高校計算機碩士稱,已申請到研究院公用服務器。
![]()
還有更可憐的,某985學生自曝全組只有一張3080,還得自費租GPU。
![]()
參考資料:
https://x.com/FrancoisChauba1/status/1997095264923078856?s=20
https://news.utexas.edu/2025/11/17/ut-eclipses-5000-gpus-to-increase-dominance-in-open-source-ai-strengthen-nations-computing-power/
https://x.com/EpochAIResearch/status/1997040687561449710
https://epoch.ai/data-insights/gpt-4s-trainable
秒追ASI
?點贊、轉發、在看一鍵三連?
點亮星標,鎖定新智元極速推送!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.