![]()
來源:新智元
【導讀】2025年就要結束,DeepMind華人研究員萬字長文為我們揭秘了谷歌內部對于AI的預言:除了算力,其他一切都是雜音。
今天是2025年的最后一天了,很多人都在這一天進行AI回顧總結。
在經歷一年的模型、算力、資本的新聞轟炸后,AI距離通用人工智能還有多遠?
如果說2024年是人們對于AI的好奇之年,那么2025年就是AI深刻影響人類社會之年。
在這充滿變數的一年里,我們聽到了截然不同的聲音:
Sam Altman在2025年中的博文《溫和的奇點》中大膽預言:
「我們已經知道如何構建AGI,2026年我們將看到能夠產生原創見解的系統。」他堅持認為,Scaling Law遠未觸及天花板,智能的成本將隨著電力的自動化生產而趨近于零。
![]()
NVIDIA的黃仁勛則將目光從「算力崇拜」轉向了「AI工廠」。
他在2025年底的一次演講中提到:
「AI的瓶頸不再是想象力,而是電力。未來的Scaling Law不僅是模型的堆疊,更是推理效率10萬倍的飛躍。」
![]()
相比之下,Meta的前首席科學家Yann LeCun依然嘴炮,他甚至在離職創辦新公司前公開表示:
「LLM是通往 AGI 的死胡同,它沒有世界模型,就像一個沒有軀體的空中樓閣。」
![]()
2026年,Scaling Law是否還能繼續玩下去?
對于這個問題,一篇來自DeepMind華人研究員的萬字長文在社交網絡火了:
Scaling Law沒死!算力依然就是正義,AGI才剛剛上路。
![]()
文章地址:https://zhengdongwang.com/2025/12/30/2025-letter.html
本文是Google DeepMind研究員Zhengdong Wang撰寫的2025年度長信。
作者以獨特的個人視角,回顧了從2015年至今AI領域的劇變,并深刻剖析了驅動這一切的核心動力——算力。
盡管外界對Scaling Laws存疑,但歷史反復證明,隨著算力的指數級增長,AI模型不斷涌現出超越人類預期的能力。
作者結合自己在DeepMind的工作經歷,驗證了強化學習教父Richard S. Sutton「苦澀的教訓」:
通用算力方法終將戰勝人類的特定技巧。
![]()
這也是我們今年最大的感受!
除了算力,其他都是雜音
2025年12月30日,當回望這波瀾壯闊的一年時,腦海中浮現的是十五年前那場由AlexNet開啟的視覺革命。
那場辛頓、李飛飛、Ilya都參與的大會,或許就是如今AI時代的真正萌芽。
![]()
那時,大多數人認為人工智能僅僅是關于「特征工程」和「人類聰明才智」的博弈,而今天,我們已經進入了一個完全不同的維度:
一個由算力主導、由Scaling Law驅動、且AGI(通用人工智能)才剛剛踏上征途的紀元。
最近大家關注的焦點無外乎:Scaling Law是否已經撞墻?
算力的信仰:為什么Scaling Law從未失效
在2024年底,業內曾出現過一陣強烈的悲鳴,認為預訓練數據的枯竭和邊際收益的遞減標志著Scaling Law的終結。
然而,站在2025年的終點,我們可以負責任地說:
Scaling Law不僅沒死,它正在經歷一場從「暴力堆參數」到「智能密度」的深刻演化。
十五年一遇的連續性
我們要理解Scaling Law,首先要看到它的歷史韌性。
研究顯示,過去十五年里,用于訓練AI模型的算力每年以四到五倍的速度增長。
這種指數級的復合增長,在人類技術史上是罕見的。
在DeepMind內部觀察到,模型在訓練過程中所消耗的數學運算量,已經超過了可觀測宇宙中的恒星數量。
這種增長并非盲目,而是建立在極其穩定的經驗公式之上。
根據Kaplan和Hoffmann等人的實證研究,性能與算力之間存在著明確的冪律關系:性能提升與算力的0.35次方成正比。
![]()
文章地址:https://fourweekmba.com/ai-compute-scaling-the-50000x-explosion-2020-2025/
這意味著,每投入10倍的算力,大約能帶來3倍的性能增益;而當我們跨越1000倍的算力鴻溝時,性能的提升將達到驚人的10倍量級。
定性躍遷與涌現能力
Scaling Law最迷人的一點在于,它不僅帶來了定量的誤差減少,更誘發了不可預測的定性躍遷。
在DeepMind的實驗中,隨著算力的增加,模型會突然展現出邏輯推理、復雜指令遵循以及事實性修正等「涌現能力」。
這種現象意味著,算力不僅僅是燃料,它本身就是一種能夠催生智能的物理量。
2025年的真相是:我們已經從單純的「預訓練Scaling」轉向了「全四個維度Scaling」:
- 預訓練Scaling
通過海量多模態數據構建基礎認知。
- 后訓練Scaling
利用強化學習(RL)進行對齊和偏好優化。
- 推理時Scaling
即讓模型在回答前「想得更久」。
- 上下文Scaling
通過超長記憶提升端到端任務能力。
在DeepMind親歷的「1000倍算力」瞬間
如果說Scaling Law是宏觀的哲學,那么2021年Zhengdong Wang在DeepMind經歷的那次實驗,就是微觀的啟示錄。
那次經歷徹底重塑了Zhengdong Wang的「智能觀」,也讓Zhengdong Wang理解了為什么說「算力即正義」。
算法聰明才智的貶值
當時,DeepMind團隊正在嘗試解決具身智能(Embodied AI)在3D虛擬環境中的導航與交互問題。
那是典型的「硬核AI」挑戰,涉及到復雜的強化學習算法優化。
當時的共識是:這個問題的瓶頸在于算法的精妙程度,在于我們如何設計更優的采樣策略和獎勵函數。
然而,一位同事提出了一個近乎「魯莽」的方案:不要改算法,直接把算力投入增加一千倍。
在那次算力狂飆之后,奇跡發生了!
那些原本被認為需要突破性人類巧思才能解決的邏輯死角,在海量的矩陣乘法面前直接「融化」了。
算法并沒有變聰明,但規模賦予了它一種類似于生物本能的魯棒性。
算力之波的沖擊
那一刻,Zhengdong Wang深刻體會到了理查德·薩頓(Richard Sutton)在《苦澀的教訓》中所表達的真理:
人類在AI領域的所謂「巧思」,在算力的指數增長面前往往不值一提。
這種realization就像是一股巨大的「算力之波」從你身上碾過,讓你意識到,與其苦思冥想如何優化那1%的算法效率,不如直接去擁抱那1000倍的算力擴張。
這種視角在2025年的今天已經成為了DeepMind內部的通用語:
我們不再問「這個問題能不能解」,而是問「這個問題需要多少算力才能解」。
正是這種心態,讓我們敢于在數據中心投資上砸下遠超阿波羅計劃的重金。
基礎設施的極限與挑戰:1GW時代的到來
Zhengdong Wang還提供了額外的視角。
當DeepMind在內部討論算力時,話題已經從「PFLOPS」轉向了「GW」。
![]()
2025年,AI不再僅僅是代碼,它是重工業,是土地、能源和定制硅基芯片的終極整合。
硬件的代際跨越:Blackwell與Ultra
這種終極整合,用一個詞概括就是「AI工廠」,正是黃仁勛在GTC大會所提出的概念。
![]()
Wang認為,NVIDIA在2025年交付的Blackwell平臺,是DeepMind能夠維持Scaling Law信仰的物理基礎。
GB200 NVL72系統將72顆GPU互聯為一個單一的超級計算引擎,其萬億參數模型的推理速度比H100提升了30倍。
![]()
BlackwellUltra的推出更是將單芯片顯存推向了288GB的極限,這意味著即使是300B以上的模型,也可以在不需要顯存卸載的情況下完整駐留,這對于長上下文和高并發推理至關重要。
電力與散熱的硬墻
然而,物理定律依然嚴苛。
單芯片功耗逼近1000W,讓DeepMind不得不全面轉向液冷方案。
2025年,開始談論「AI工廠」而非「數據中心」。
谷歌的基礎設施首席執行官Amin Vahdat在內部會議中明確指出,為了滿足爆發式的算力需求,我們必須每六個月將算力能力翻倍,并在未來4-5年內實現1000倍的增長。
![]()
這種壓力不僅體現在金錢上。
2025年上半年,AI數據中心投資占據了美國GDP增長的90%以上。
盡管外界擔心泡沫,但DeepMind內部的視角是:
如果你能看到1000倍算力帶來的智能紅利,那么任何低于這個數字的投入都是一種風險。
具身智能的突破:SIMA 2與通用Agent的誕生
在DeepMind,始終認為AGI的終極形態不在對話框里,而在物理世界中。
2025年,SIMA 2項目展示了從「理解」到「行動」的跨越。
![]()
像素級交互與開放式學習
SIMA 2是一個通用的具身智能體,它不依賴于游戲內部的數據接口,而是像人類一樣,通過觀察像素和操作鍵盤鼠標在復雜的3D虛擬世界中行動。
這種設計確保了它所習得的技能——從基礎的導航到復雜的工具使用——具有極強的泛化性,可以無縫遷移到完全不同的數字環境,甚至為未來的物理機器人提供大腦。
更重要的是,SIMA 2展示了「自我進化」的能力。
通過與Gemini基礎模型的結合,它可以自主生成任務、自我設定獎勵,并在沒有任何人類標注的情況下,通過不斷的嘗試和錯誤習得新技能。
擴展閱讀:我的王者榮耀有救了!谷歌發布游戲SIMA 2,不開外掛「像人一樣」練級
![]()
METR時間跨度圖:智能的量化加速
在評估進展時,作者最推崇的是METR的時間跨度圖。
![]()
兩年前,AI只能穩定完成人類耗時9分鐘的任務;而到了2025年底,這個數字已經躍升到了4小時以上。
按照目前的Scaling趨勢,到2028年,AI有望獨立完成人類專家需要數周才能完成的科研或工程任務。
AGI才剛剛上路,正處于爆發的前夜
在結尾,Zhengdong Wang寫道:「這就是我上車的地方——我們現在還極其早。」。
盡管2025年我們已經看到了能過IMO的金牌模型,看到了能自主在3D世界中生存的Agent,但在DeepMind的「Post-AGI」團隊看來,這僅僅是序幕。
我們依然受困于1GW的電力瓶頸,受困于數據采集的效率,受困于推理成本的最后幾美分。
AGI不是終點,而是起點!
DeepMind之所以成立Post-AGI團隊,是因為預見到:
當AGI的門檻被跨過那一刻,人類社會真正需要面對的挑戰才剛剛開始:
如何管理那些能夠自主進化、且由于算力規模而產生「不可解釋性」的智能體?
在一個智能成本趨近于零的世界里,人類的獨特價值如何重構?
當AI開始主導科學研發的循環,人類文明的知識邊界將以何種速度擴張?
![]()
2025年的真相是,Scaling Law不僅是通往AGI的路徑,它本身就是一種重塑物理世界的哲學。
那些還在爭論泡沫的人,或許還沒意識到,這股由1000倍算力卷起的風暴,已經將人類送往了一個再也回不去的紀元。
對于AI的擁躉,所有人正滿懷敬畏地看著那列名為「智能」的火車加速駛向遠方。
我們并非在等待奇跡,我們正在親手塑造它。
AGI,才剛剛上路。
參考資料:
https://zhengdongwang.com/2025/12/30/2025-letter.html
為偉大思想而生!
AI+時代,互聯網思想(wanging0123),
第一必讀自媒體
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.