![]()
預測次貸危機、做空英偉達的投資大師麥克爾·伯里(Michael Burry)、Anthropic的聯合創始人杰克·克拉克(Jack Clark),以及科技觀察者德瓦克什·帕特爾(Dwarkesh Patel),三個人進行了一場辯論,主題是:
AI,究竟是人類歷史上最偉大的技術革命,還是一場即將破裂的資本泡沫?
杰克·克拉克提出了一個非常有趣,但有悖于常識的觀察:“2017年,AI圈的主流共識是白板策略,讓AI從零開始,在《星際爭霸》《Dota2》等游戲中反復試錯,最終進化出通用智能。”
DeepMind和OpenAI都押注這條路線,培養出了超越人類的游戲AI。
但歷史證明,這條路走不通。
真正改變游戲規則的是另一條路徑:大規模預訓練+Transformer架構+縮放定律。
《Attention Is All You Need》論文提出的Transformer讓大規模訓練變得高效,而縮放定律則揭示了一個簡單卻強大的真理——你投入的數據和算力越多,模型就越聰明,這種關系可以被精確建模。
杰克·克拉克說“現在的AI是它一輩子最差的時候!今天Claude或GPT-4的能力已經是地板而非天花板。如果你上次體驗AI還是在幾個月前,你對前沿技術的判斷已經嚴重失準。”
這種快速迭代讓AI實驗室開始回到智能體研發,但這次它們站在了預訓練大模型這個強大的肩膀上。
DeepMind的SIMA2可以探索3D環境,ClaudeCode可以自主編程,它們的底層都是預訓練模型賦予的先天智慧,就像每個未來的《星際爭霸》AI都已經讀過中文原版《孫子兵法》。
然而,就在討論分為沉浸在技術突破的興奮中時,麥克爾·伯里拋出了一盆冷水。他講了一個巴菲特的故事:
沃倫·巴菲特在60年代末擁有一家百貨商店。當街對面的百貨商店裝了一部自動扶梯時,他也必須跟著裝。最終,沒人從這個昂貴的項目中獲益。利潤率沒有持久提升,成本結構也沒改善,兩家店還是處在完全相同的競爭位置上。
![]()
這個自動扶梯理論直擊AI投資狂潮的要害。
所有科技巨頭都被FOMO(錯失恐懼癥)驅動著購買GPU、建數據中心時,卻沒有人能真正獲得持久的競爭優勢。
“因為你的競爭對手也在做同樣的事,最終雙方只是把AI能力變成了做生意的必備成本,而非利潤來源。”
伯里的數據更加觸目驚心:“英偉達售出了4000億美元的芯片,但終端用戶的AI產品收入不到1000億美元。”這個4:1的基礎設施/應用收入比,在他看來是典型的泡沫特征。
更糟糕的是,芯片現在每年更新一代,今天斥巨資建造的數據中心,可能在兩三年后就成為擱淺資產。
他特別點名了微軟CEO薩提亞·納德拉的一句話:我撤回了一些項目并放慢了建設速度,因為我不想在這一代芯片上被卡住四五年的折舊。這在伯里眼中是確鑿證據——連最樂觀的建設者都開始擔心資本陷阱。
伯里最關心的指標是ROIC(投入資本回報率),這是衡量公司還有多少增長空間的黃金標準。過去,微軟、谷歌這些軟件巨頭的ROIC極高,因為軟件幾乎零邊際成本,一旦開發完成就能持續產生現金流。
但AI改變了一切。這些公司正在變成資本密集型的硬件企業,需要持續投入巨額資本購買GPU、建數據中心、支付電費。
納德拉在采訪中說,他希望通過AI在沉重的資本支出周期中維持ROIC,但伯里回應:“我看不到這一點,甚至對納德拉來說,這聽起來也只是一個希望。”
更隱蔽的問題是股權薪酬(SBC)。伯里計算出,英偉達大約一半的賬面利潤被股權薪酬吃掉了。
“當一半員工身價2500萬美元時,他們的生產力提升還算數嗎?扣除真實的SBC成本后,這些AI明星公司的利潤率會大幅縮水。”
德瓦克什試圖反駁:“為什么ROIC比絕對回報更重要?AI讓科技公司的潛在市場從廣告(4000億美元)擴大到勞動力(數十萬億美元)。”
但伯里堅持:“如果一家公司靠借債或燒光現金流去做低回報投資,它只是虛胖,市盈率最終會跌到8倍,也就是那些沒有增長前景的傳統企業的水平。”
關于AI是否真的提升生產力,討論陷入了數據的迷霧。
Anthropic對內部開發者的調查顯示,60%使用Claude的人自稱生產力提高了50%。但METR的獨立研究卻發現,開發者在熟悉的代碼庫中使用AI工具后,合并Pull Request的時間反而增加了20%。
杰克·克拉克坦誠地承認:“數據是相互矛盾且稀疏的。人們的主觀感受和客觀現實可能南轅北轍——自我報告的生產力暴漲,恰恰可能掩蓋了真實生產力的停滯甚至下降。Anthropic正在開發新的監測工具,希望在2026年拿出研究成果來澄清真相。”
德瓦克什提出了一個更深層的疑問:“如果AI真的能讓開發者效率提升10倍,為什么三大AI實驗室(OpenAI、Anthropic、谷歌)的競爭比以往任何時候都激烈?要么內部吃自家狗糧無法形成護城河,要么AI的生產力增益遠比表面看起來要小。”
最諷刺的是就業市場的沉默。
德瓦克什說:“如果你在2017年給我看Gemini 3或Claude 4.5,我會以為它能讓一半白領失業。但現在AI對勞動力市場的影響需要用'電子表格顯微鏡'才能看到。工業革命曾導致義務教育年限延長,以延緩年輕人進入勞動力市場,但AI革命至今沒有引發任何類似的社會震蕩。”
如果說這場討論有一個讓所有人都感到震驚的點,那就是谷歌的落后。
《Attention Is All You Need》的八位作者全是谷歌員工,谷歌擁有搜索、Gmail、安卓的海量數據,擁有TPU芯片,甚至早就開發出了內部的大語言模型。
然而就是這樣一家擁有所有技術積淀的巨頭,卻眼睜睜看著OpenAI憑一個ChatGPT聊天機器人引爆了AI革命。伯里難以置信:“谷歌在AI領域追趕一家初創公司,這簡直令人難以置信。”
更詭異的是,這場革命是一個聊天機器人開啟的。ChatGPT的用例從一開始就很有限——搜索、學生作弊、編程,但它卻觸發了數萬億美元的基礎設施競賽。
伯里打了個比方:“這就像有人造了一個原型機器人,然后世界上每個企業都開始為機器人未來砸錢。”
競爭格局也讓人困惑。德瓦克什觀察到,AI領域的領先優勢極度不持久——2017年是谷歌,幾年前是OpenAI,現在三巨頭每隔幾個月就輪流站上領獎臺。似乎有某種力量(人才挖角、信息流通、逆向工程)在不斷抹平任何單一實驗室的滾雪球優勢。
杰克·克拉克認為,雖然所有實驗室都在用AI輔助開發,但存在木桶效應:“代碼生成提速10倍,但代碼審查只提速2倍,整體并沒有質變。”
討論到最后,三位嘉賓難得達成了共識:“能源才是AI發展的終極制約因素。”
![]()
我們也曾在文章《谷歌為發電上天了,但AI真的缺電嗎?》中寫到過相同的論調。
伯里給政策制定者的建議異常激進:“拿1萬億美元,繞過所有抗議和法規,在全國各地布滿小型核反應堆,建立全新的國家電網,用核能防御部隊保護每個設施。這不僅是為了AI,而是為了國家經濟安全。只有廉價充沛的能源,才能讓美國在競爭中跟上中國,才有希望通過經濟增長償還國債。”
這個建議把AI議題拉到了國家生存的高度。杰克·克拉克強烈贊同:“AI將在經濟中扮演重要角色,它從根本上依賴底層基礎設施。就像歷史上的大規模電氣化、道路建設一樣,我們需要為能源做同樣的事。大型AI數據中心是新型能源技術的理想測試客戶,我特別期待AI能源需求與核技術的融合。”
在所有關于模型參數、訓練算法、應用場景的辯論背后,電力正在成為那個無法繞過的物理約束。
這場圓桌討論沒有給出標準答案,卻留下了兩個值得深思的問題:
第一,AI的價值最終會流向誰?
如果伯里的自動扶梯理論成立,AI供應鏈上的所有公司都無法獲得超額利潤,那么價值只會流向終端客戶。這對人類整體是好事,但對投資者卻是噩夢。
而如果杰克·克拉克是對的,AI能力的快速迭代終將形成護城河,那么現在就是押注未來巨頭的最佳時機。
第二,我們該相信時間表還是數據?
德瓦克什指出,AI實驗室的收入增長速度(2026年是400億還是1000億美元)比任何基準測試都更能說明問題。
但伯里堅持,在看到應用層收入突破5000億美元或數百萬工作崗位被AI取代之前,一切都只是信仰。
歷史會給出答案,但在那之前,我們都在這場萬億美元的豪賭中各自下注。
全文翻譯
主持人帕特里克·麥肯齊(Patrick McKenzie):麥克爾·伯里在大家都買入時準確預測了次貸危機。現在,他看著數萬億美元涌入AI基礎設施,并對此持懷疑態度。杰克·克拉克是Anthropic的聯合創始人,這是致力于構建未來的領先AI實驗室之一。德瓦克什·帕特爾采訪過從馬克·扎克伯格到泰勒·科溫的每一個人,探討這一切將走向何方。我們將他們聚集在一個谷歌文檔中,由帕特里克·麥肯齊主持,并提出問題:AI究竟是真材實料,還是我們正在目睹一場歷史性的資本錯配實時上演?
帕特里克·麥肯齊:你被聘為過去幾年的歷史學家。請簡明扼要地敘述自《Attention Is All You Need》(Transformer論文)以來建立了什么。關于2025年的情況,有哪些會讓2017年的觀眾感到驚訝?哪些消息靈通人士的預測沒有應驗?請像對你所在領域(研究、政策或市場)的人那樣講述這個故事。
杰克·克拉克:回到2017年,大多數人押注通往真正通用系統的路徑是通過在日益困難的任務課程上從頭開始訓練智能體(Agents),并通過這種方式創造一個具有通用能力的系統。這在所有主要實驗室(如DeepMind和OpenAI)的研究項目中都有體現,他們試圖在《星際爭霸》、《Dota2》和AlphaGo等游戲中訓練超人類玩家。我認為這基本上是一個“白板”(tabularasa)賭注——從一個空白的智能體開始,把它放在某種環境里烘焙,直到它變聰明。
當然,正如我們現在所知,這并沒有真正導致通用智能——但它確實導致了在其訓練的任務分布內的超人類智能體。
此時,人們開始嘗試另一種方法,在數據集上進行大規模訓練,并試圖構建能夠從這些分布中預測和生成的模型。這種方法最終極其有效,并受到兩件關鍵事情的加速:
1. 來自《Attention Is All You Need》的Transformer框架,它使這種大規模預訓練效率大大提高;
2. “縮放定律”(ScalingLaws)的大致并行發展,或者是這樣一個基本見解:你可以模擬出預訓練模型的能力與你投入的基礎資源(數據、算力)之間的關系。
3. 通過結合Transformer和縮放定律的見解,少數人正確地押注:你可以通過大規模擴展數據和算力來獲得通用系統。
現在,有趣的是,事情又回到了原點:人們開始再次構建智能體,但這一次,它們被灌輸了來自預訓練模型的所有見解。DeepMind的SIMA2論文就是一個很好的例子,他們制作了一個用于探索3D環境的通用智能體,它依托于底層的預訓練Gemini模型。另一個例子是ClaudeCode,這是一個編碼智能體,其底層能力源自一個大型預訓練模型。
帕特里克:由于大語言模型(LLM)是可編程且廣泛可用的,包括相對于2017年雖然受限但仍然強大的開源軟件(OSS)版本,我們現在已經到了這樣一個地步:任何進一步的AI能力開發(或任何其他有趣的事情)都不需要在比我們目前擁有的更差的認知基底上構建。我認為這是業內人士最了解、而政策制定者和外界最不了解的事情之一:“你今天看到的只是地板,不是天花板”。
每一個未來的《星際爭霸》AI都已經閱讀了中文原版的《孫子兵法》,除非其設計者評估認為這會讓它在防御ZergRush(蟲族快攻)時表現更差。
杰克:是的,我們在Anthropic經常對政策制定者說的一句話是“這是它這輩子最差的時候了!”,很難向他們傳達這最終有多重要。另一件反直覺的事情是能力提升的速度有多快——目前的一個例子是有多少人正在使用ClaudeCode中的Opus4.5,并說著各種版本的“哇,這東西比以前好太多了”。如果你上次玩LLM是在11月,你現在對前沿技術的判斷已經嚴重失準了。
麥克爾·伯里:從我的角度來看,在2017年,AI還不是LLM。AI是通用人工智能(AGI)。我認為那時人們并沒有把LLM視為AI。我是看科幻小說長大的,它們預測了很多東西,但沒有一個把“AI”描繪成某種搜索密集型的聊天機器人。
關于《Attention Is All You Need》及其引入的Transformer模型,這些都是谷歌工程師使用Tensor完成的,早在2010年代中期,AI并不是一個陌生的概念。神經網絡、機器學習初創公司很常見,AI在會議中被頻繁提及。谷歌早就擁有了大語言模型,只不過是內部使用的。
讓我感到最大的意外之一是,鑒于谷歌在搜索和Android領域的統治地位,以及在芯片和軟件方面的優勢,它竟然沒有一路領跑。
另一個意外是,我原以為專用集成電路(ASIC)會更早被采用,小語言模型(SLM)也會更早被采用。英偉達(英偉達)在推理領域能維持這么久的統治地位令人震驚。
讓我感到最大的意外是ChatGPT開啟了這場支出熱潮。ChatGPT的用例從一開始就普遍受限——搜索、學生作弊和編程。現在有更適合編程的LLM。但這竟然是一個聊天機器人開啟了數萬億美元的支出。
說到支出,我認為德瓦克什采訪薩提亞·納德拉(SatyaNadella)的最佳時刻之一是承認所有大型軟件公司現在都是硬件公司了,屬于資本密集型,我不確定跟蹤它們的分析師是否真的知道什么是“維護性資本支出”。
德瓦克什·帕特爾:說得好。AI領域的領先優勢如此不可持續,確實令人驚訝。當然,在2017年,谷歌遙遙領先。幾年前,OpenAI似乎遙遙領先。似乎有某種力量(可能是人才挖角、謠言工廠或逆向工程)目前為止抵消了任何單一實驗室可能擁有的滾雪球優勢。相反,三巨頭每隔幾個月就在領獎臺上輪換位置。我很好奇“遞歸超級智能”是否真的能改變這一點,還是我們應該預期這種激烈的競爭會永遠持續下去。
杰克:關于遞歸,所有前沿實驗室都在使用AI工具加速自己的開發人員,但這并不十分利索。它似乎具有“短板效應”——例如,如果你現在能產出10倍的代碼,但你的代碼審查工具只改進了2倍,你就看不到巨大的加速。一個巨大的懸而未決的問題是是否可能完全閉合這個循環,在這種情況下,你可能會看到某種復利式的研發優勢。
AI工具真的能提高生產力嗎?
德瓦克什:價值百萬美元的問題是:究竟是METR的生產力研究(顯示在開發者非常熟悉的代碼庫中,使用編碼工具會導致合并PullRequest的時間大約減少20%),還是獨立編碼任務的人類等效時間范圍(已經在數小時范圍內,并且每4到7個月翻一番),更能衡量實驗室研究人員和工程師實際上獲得的加速?
我這里沒有直接經驗,但我猜更接近前者,因為目前還沒有很好的反饋驗證循環,而且標準是開放式的(可維護性、品味等)。
杰克:同意,這是一個關鍵問題——而且數據是相互矛盾且稀疏的。例如,我們在Anthropic對開發人員進行了一項調查,看到受訪的60%使用Claude工作的人自稱生產力提高了50%。
但像METR這樣的研究似乎與此相矛盾。我們需要更好的數據,特別是對AI實驗室內部和外部開發人員的監測,以了解發生了什么。
把視野放寬一點,編碼工具的大規模和前所未有的采用確實表明人們從中看到了一些重大的主觀益處——如果越來越多的開發人員熱情地讓自己變得更低效,那是很不合常理的。
德瓦克什:不想在這個問題上鉆牛角尖,但自稱的生產力遠高于——甚至可能與——真實生產力背道而馳,這正是METR研究預測到的。
杰克:是的,同意。不透露太多,我們正在專門考慮監測手段,弄清楚這里的“真相”是什么,因為人們自我報告的內容最終可能與現實不同。希望我們在2026年能在這方面有一些研究產出!
哪家公司會贏?
麥克爾·伯里:你們認為領獎臺會繼續輪換嗎?據我所知,谷歌在AWS和微軟的開發者中正贏得青睞。而且公司內部的“搜索慣性”似乎已經被清除了。
德瓦克什:有趣。在我看來競爭比以往任何時候都激烈。X上對Opus 4.5和Gemini 3.5 Pro的評價都很高。對于哪家公司會贏沒有定論,但這絕對看起來尚未塵埃落定。
杰克:我也覺得競爭比以往任何時候都激烈!
德瓦克什:很好奇大家對此的看法:Anthropic、OpenAI或谷歌能承受多少次失敗的模型訓練/啞彈?考慮到需要依靠收入和市場情緒不斷融資(順便問一句:到底是為什么融資?)。
麥克爾·伯里:谷歌搜索的秘密一直在于它非常便宜,因此那些無法貨幣化的信息搜索(占80%或更多)不會給公司積累虧損。我認為這是目前生成式AI和LLM的根本問題——它們太貴了。很難理解盈利模式是什么,或者任何一個模型的競爭優勢將是什么——它是能收費更高,還是運行更便宜?
也許谷歌最終會成為那個運行成本最低的公司,并贏得這個最終變成大宗商品經濟的市場。
德瓦克什:好觀點。特別是如果你認為過去一年的許多/大部分收益是推理規模擴大的結果,這需要指數級增加的可變成本來維持。歸根結底,某樣東西的價格上限是其替代成本。因此,只有當進步繼續保持快速,并且正如杰克所說,最終變得自我復利時,基礎模型公司才能收取高利潤率(目前它們似乎正在這樣做)。
為什么AI還沒搶走我們所有的工作?
德瓦克什:自動化工作和做人類所做的事情所涉及的內容之多,真的令人驚訝。我們剛剛跨過了許多關于AGI的常識性定義——圖靈測試甚至都不值得評論了;我們擁有的模型可以推理并解決困難的、開放式的編碼和數學問題。
如果你在2017年向我展示Gemini 3或Claude 4.5 Opus,我會認為它會讓一半的白領失業。然而,AI對勞動力市場的影響需要用“電子表格顯微鏡”才能看到,如果確實存在的話。
我也會對AI私人投資的規模和速度感到驚訝。就在幾年前,人們還在談論AGI必須是一個政府主導的“曼哈頓式”項目,因為那是你將經濟轉化為算力和數據引擎的唯一途徑。而目前看來,老式的市場經濟完全可以維持多個GDP百分比的AI投資。
麥克爾·伯里:這是一個好點子,德瓦克什,關于圖靈測試——那確實討論了好一陣子。在過去,例如在工業革命和服務業革命期間,對勞動力的影響如此巨大,以至于實行并擴大了義務教育,以便讓年輕人更晚進入勞動力市場。我們肯定還沒有看到類似的情況。
杰克:是的,德瓦克什和麥克爾·伯里,AI社區的一個真理是,他們不斷構建據稱能衡量真實智能的困難任務,然后AI系統超越了這些基準,你會發現自己面對的是表面上非常有能力,但仍可能犯下任何人類都會認為是離奇或反直覺錯誤的東西。
最近的一個例子是,根據基準測試,LLM在一系列據稱困難的認知任務上得分為“超人類”,但在犯錯時無法自我糾正。這現在正在改善,但它說明了AI模型的弱點可以有多么反直覺。而你經常在大規模改進的同時發現它們。
德瓦克什:我想知道反過來是否也成立——人類是否也會可靠地犯下一類LLM會認為是離奇或反直覺的錯誤,哈哈。LLM實際上是比人類更參差不齊,還是只是以不同的方式參差不齊?
帕特里克:借用德瓦克什書中的一個觀察,LLM在一個世俗方面是超人類的,那就是它們說的語言比任何人類都多,而且比幾乎所有多語言者能達到的水平都要高。
令人難以置信的是,這甚至是偶然發生的,即使實驗室沒有專門為此進行訓練。我見過的最令人目瞪口呆的演示之一是,一個僅在旨在包含英語文檔的語料庫上訓練的LLM,卻能夠以大致專業翻譯的標準將CNN新聞文章翻譯成日語。
從這個角度來看,一個沒有經過禮貌訓練的LLM可能會說:“人類真是離奇而參差不齊;看看他們中有多少人生活在一個有書的世界里卻不會說日語。”
為什么許多工人沒有使用AI
帕特里克:編程似乎是AI廣泛工業化采用的前沿,像Cursor這樣的公司收入飛速增長,有品味的技術專家開始使用ClaudeCode和OpenAICodex等工具,以及圍繞“氛圍編碼”(vibe coding)的氛圍。
這導致了對AI熱情明顯的嚴重不對稱,因為大多數人不是程序員。哪個行業接下來會發生變化?什么變化會讓這一點在收入、就業或價格中顯現出來,而不僅僅是演示?
杰克:編程有一個很好的特性,即相對“閉環”。你使用LLM生成或調整代碼,然后驗證并推送到生產環境。確實需要更廣泛的工具到來,才能讓LLM在編程以外的領域呈現這種“閉環”特性。
例如,網絡搜索能力的創建以及像模型上下文協議(MCP)連接之類的東西的到來,使得LLM能夠將其“閉環”效用大規模擴展到編程之外。
舉個例子,我最近一直在研究各種東西的成本曲線(例如每磅入軌成本,或太陽能每瓦成本),這是你在這些工具出現之前可以用LLM研究的東西,但它有巨大的摩擦,迫使你在LLM和其他所有東西之間來回切換。現在摩擦消除了,你看到了更高的采用率。
因此,我預計我們將看到發生在程序員身上的事情更廣泛地發生在知識工作者身上。這感覺應該會在科學研究、法律、學術界、咨詢和其他領域以一種分散但廣泛的方式顯現出來。
麥克爾·伯里:歸根結底,AI必須由某人購買。外面有人為商品或服務買單。那就是GDP。而這種支出的增長速度是GDP的速度,2%到4%——或許對于擁有定價權的公司會有一些提升,但在AI的未來這似乎不太可能。
經濟并沒有神奇擴張的蛋糕。它們只有算術上受限的蛋糕。沒什么花哨的。整個軟件蛋糕——運行各種企業和創意功能的SaaS軟件——不到1萬億美元。這就是為什么我一直回到基礎設施與應用的比例。
英偉達出售4000億美元的芯片,而終端用戶的AI產品收入不到1000億美元。
AI必須提高生產力并創造不蠶食其他類別的新支出類別。這都很難做到。AI會足夠提高生產力嗎?這是有爭議的。資本支出周期是基于信仰和錯失恐懼癥(FOMO)的。目前還沒有人用行得通的數字來證明。
外面有一個更簡單的敘事,即AI會讓一切變得更好,支出將會爆炸。它更有可能把支出吸進去。如果AI用50美元的席位取代了500美元的席位許可,這對生產力來說是好事,但對生產力支出是通縮的。而且獲得的生產力很可能被所有競爭對手共享。
德瓦克什:麥克爾,這不就是“勞動總量謬誤”嗎?即認為有固定數量的軟件要寫,我們可以以此為上限來衡量AI對軟件的影響?
麥克爾·伯里:新市場確實會出現,但它們的發展速度比受到強烈激勵的未來學家所相信的要慢。這一直是真的。人口統計和總潛在市場(TAM)往往只是脫離現實的營銷噱頭。中國的人口正在萎縮。歐洲的正在萎縮。美國是唯一一個人口還在增長的主要西方國家,那是因為移民,但這也被政治化了。FOMO是一種很厲害的毒藥。你看看Apple或Microsoft的一些評論,似乎他們意識到了這一點。
德瓦克什:插一句,有趣的是,AI恰好在我們正需要它來把我們從未來幾十年經濟本會陷入的人口結構泥潭中拯救出來的時候出現了。
麥克爾·伯里:是的,德瓦克什。在醫療領域,存在真正的短缺,未來沒有希望有足夠多的人類醫生。好的醫療保健必須變得更便宜,需要技術來擴展真正醫療專業知識的覆蓋范圍。
工程師會失業嗎?
帕特里克:Apple、Amazon、谷歌、Facebook、微軟目前雇傭了大約50萬名工程師。給出你對2035年這個數字的預測并解釋你的思路。或者論證人數是錯誤的變量,并說出你會追蹤的資產負債表或生產力指標。
麥克爾·伯里:從2000年開始,Microsoft的股票在14年里原地踏步,但增加了18000名員工。事實上,Cisco、Dell和Intel的人數幾乎沒有變化,盡管股價大跌。所以我認為這是錯誤的變量。
它沒有告訴我們關于價值創造的任何信息,尤其是對于現金充裕的公司以及處于壟斷、雙寡頭或寡頭壟斷情況的公司。
我認為這(人數)會更低,或者不會高出多少,因為我認為我們正走向一個非常長期的低迷。超大規模企業在2022年股價下跌時解雇了員工,并在股價上漲時雇回了大部分人。這僅僅是幾年的事。
我會追蹤基于股份的薪酬(SBC)的全口徑成本,然后再說生產力正在創紀錄。在英偉達,我計算出大約一半的利潤被與股票掛鉤的薪酬消除了,這些薪酬將價值轉移給了員工。好吧,如果一半的員工現在身價2500萬美元,那么這些員工的生產力收益是多少?更不用說,計入準確SBC成本后的利潤率會低得多。
壓倒一切的指標是投入資本回報率(ROIC),而這些軟件公司的ROIC曾經非常高。現在它們正在成為資本密集型的硬件公司,ROIC肯定會下降,這將長期對股價構成壓力。沒有什么比ROIC的方向——向上還是向下,以及以什么速度——更能預測市場的長期趨勢了。現在這些公司的ROIC正在快速下降,這種情況將持續到2035年。
在德瓦克什的采訪中,薩提亞·納德拉說他正在尋求通過軟件在沉重的資本支出周期中維持ROIC。我看不到這一點,甚至對納德拉來說,這聽起來也只是一個希望。
德瓦克什:問個天真的問題,為什么ROIC比絕對回報更重要?我寧愿擁有一家能夠持續增長的大企業(盡管作為投資的一小部分),也不愿擁有一家基本上在印鈔票但規模有上限的小企業。
許多大型科技公司的ROIC較低,但它們在未來二十年的潛在市場已經從廣告(每年4000億美元收入)增加到勞動力(每年數十萬億美元收入)。
麥克爾·伯里:投入資本回報率是衡量公司還剩下多少機會的指標。從我的角度來看,我見過許多通過舉債收購其他公司來做大的整合案例。
這讓ROIC變得冷酷無情。如果這些購買的回報最終低于債務成本,公司就會像WorldCom一樣倒閉。
在某個時刻,這種AI建設支出必須產生高于該投資成本的回報,否則就沒有增加經濟價值。如果一家公司之所以變大是因為它借了更多錢或將所有現金流花在了低回報的事情上,那對投資者來說并不是一個吸引人的品質,倍數將會下降。有許多非科技公司在印鈔票,除了通過收購之外沒有真正的增長前景,它們的市盈率約為8倍。
錢去哪兒了?
帕特里克:從資本周期的角度來看,你認為我們在AI建設中處于什么位置——早期過度投資、中期洗牌,還是與過去的科技繁榮結構性不同?什么會改變你的想法?
麥克爾·伯里:我確實認為它與之前的繁榮不同,除了資本支出顯著短暫這一點。芯片現在每年都在更新換代;今天的數據中心將無法處理幾年后的芯片。人們幾乎可以爭辯說,其中很多應該費用化,而不是資本化。或者在兩、三、四年內折舊。
另一個巨大的區別是,私人信貸對這場繁榮的融資與公共資本市場一樣多或更多。私人信貸是一個模糊的領域,但期限錯配非常突出——其中大部分被證券化,好像資產能持續二十年,同時給超大規模企業每四到五年退出的機會。這簡直是在自找麻煩。
當然,花錢的人是地球上最富有的公司,但無論是來自現金還是資本市場,大筆支出就是大筆支出,計劃中的支出壓倒了即使是今天巨大的超大規模企業的資產負債表和現金流。
此外,在建工程(CIP)現在是我認為已經被使用的一種會計技巧。尚未“投入使用”的資本設備不開始折舊或計入收入。它可以永遠在那里。我想象很多擱淺資產將被隱藏在CIP中以保護收入,我認為我們已經看到了這種潛力。
在德瓦克什的采訪中,納德拉說他撤回了一些項目并放慢了建設速度,因為他不想在這一代芯片上被卡住四五年的折舊。這有點像是一個確鑿的證據聲明。
我們現在處于周期中期——過了股票會因進一步擴建而獎勵投資者的點,正在進入真實成本和收入缺乏開始顯現的時期。
在過去的周期中,股票和資本市場在大約一半的時候達到頂峰,其余的資本支出發生在對相關資產逐漸悲觀或現實的看法降臨之際。
德瓦克什:我認為這完全取決于AI是否繼續快速改進。如果你真的可以在B200(英偉達的B200GPU)上運行最高效的人類大腦,那么我們顯然投資不足。我認為應用層的收入目前不如關于AI能力本身的原始預測有信息量。
杰克:同意這一點——近年來能力的進步程度令人深感驚訝,并導致了AI利用率的大規模增長。在未來,模型能力可能會有進一步的階躍式增長,這些可能會對經濟產生極其重大的影響。
市場搞錯了什么
帕特里克:價值在AI供應鏈中累積在哪里?這與最近或歷史上的技術進步有何不同?你認為市場目前對誰的看法最錯誤?
麥克爾·伯里:嗯,歷史上,在所有行業中,價值都累積給那些擁有持久競爭優勢的人,表現為定價權或不可觸及的成本或分銷優勢。
目前尚不清楚這里的支出是否會導致這種情況。
WarrenBuffett在60年代末擁有一家百貨商店。當街對面的百貨商店裝了一部自動扶梯時,他也必須跟著裝一部。最終,沒人從這個昂貴的項目中獲益。利潤率沒有持久的提升,成本結構也沒改善,兩家店還是處在完全相同的競爭位置上。這就是大多數AI應用最終的結局。
這就是為什么數萬億美元的支出卻沒有通往實體經濟利用的清晰路徑如此令人擔憂。大多數公司不會受益,因為他們的競爭對手將受益于同樣的程度,而沒有一方會因此擁有競爭優勢。
我認為市場對AI的兩個典型代表錯得最離譜:英偉達和Palantir。這是兩家最幸運的公司。他們適應得很好,但他們很幸運,因為當這一切開始時,他們都沒有為AI設計產品。但他們正被這樣使用。
英偉達的優勢并不持久。SLM和ASIC是大多數AI用例的未來。如果有必要,它們將向后兼容CUDA。英偉達是在競爭對手帶著完全不同的方法進來之前的那個耗電、骯臟的臨時解決方案。
Palantir的CEO把我比作壞人,因為想象中我對他的公司下了十億美元的賭注。那不是一個自信的CEO。他正在竭盡全力營銷以保持這種勢頭,但它會滑落。扣除基于股票的薪酬后,幾乎沒有收益。
德瓦克什:AI實驗室是否能從遞歸自我改進效應中獲得持久的競爭優勢還有待觀察。但是,如果杰克是對的,AI開發人員應該已經看到了巨大的生產力收益,那么為什么現在的競爭比以往任何時候都更激烈?
要么是這種內部“吃自家狗糧”無法維持競爭優勢,要么是AI的生產力收益比看起來要小。
如果結果證明AI堆棧中的任何人都無法獲得瘋狂的利潤,以及AI仍然被證明是一件大事,那么顯然價值歸于客戶。這在我聽來很棒。
麥克爾·伯里:在自動扶梯的例子中,唯一的價值歸于客戶。如果生產者或提供者不能收取壟斷租金,情況總是如此。
什么會改變他們的想法
帕特里克:2026年的什么頭條新聞——技術上的或金融上的——會讓你感到驚訝,并導致你重新校準對AI進展或估值的總體看法?回顧過去,迄今為止最大的意外或重新校準是什么?
麥克爾·伯里:會導致我重新校準的最大意外將是自主AI智能體取代了最大公司的數百萬個工作崗位。這會震驚我,但不一定能幫助我理解持久優勢在哪里。又是那個巴菲特自動扶梯的例子。
另一個將是應用層收入達到5000億美元或更多,因為“殺手級應用”的激增。
目前,我們將看到兩件事之一:要么英偉達的芯片能用五到六年,因此人們需要的芯片更少;要么它們只能用兩到三年,超大規模企業的收益將崩潰,私人信貸將被摧毀。
回顧過去,迄今為止最大的意外是:谷歌沒有一路領跑——《Attention Is All You Need》的八位作者都是谷歌員工;他們擁有搜索、Gmail、Android,甚至LLM和芯片,但他們搞砸了,給了條件遠不如他們的競爭對手一個機會。谷歌在AI領域追趕一家初創公司:這簡直令人難以置信。
ChatGPT——一個聊天機器人開啟了一場數萬億美元的基礎設施競賽。這就像有人制造了一個原型機器人,然后世界上的每個企業都開始為機器人未來進行投資。
英偉達在推理時代仍保持統治地位。我原本預計ASIC和SLM到現在會占主導地位,并且我們將遠遠超越提示工程。也許對英偉達的迷戀實際上阻礙了參與者。或者英偉達的反競爭行為阻礙了。
德瓦克什:對我來說最大的意外將是:2026年累計AI實驗室收入低于400億美元或高于1000億美元。這將意味著事情比我預期的要快得多或慢得多。
持續學習被解決。不是像GPT-3“解決”上下文學習那樣,而是像GPT-5.2在從上下文中理解的能力上實際上幾乎像人類一樣。如果與模型一起工作就像復制一個已經與你一起工作了六個月的熟練員工,而不是在他工作的第一小時獲得他的勞動,我認為這構成了AI能力的巨大解鎖。
我認為自2020年以來,通往AGI的時間表已經大大縮短。那時,你可以分配一些概率給將GPT-3擴展一千倍并達到AGI,以及一些概率給我們在完全錯誤的軌道上,必須等到本世紀末。如果進展打破了趨勢線,并指向在未來5到20年內出現真正的人類可替代智能,那將是對我來說最大的意外。
杰克:如果“縮放撞墻”,那將是非常令人驚訝的,并將對基礎研究范式以及更廣泛的AI經濟產生非常重大的影響。顯然,基礎設施的建設,包括為訓練未來AI模型而在設施上的巨額投資,表明人們正在押注并非如此。
另一件我會覺得驚訝的事情是,如果結合了提高分布式訓練效率的技術突破,以及一組參與者聚集了足夠的計算機來訓練一個非常強大的系統。
如果發生這種情況,這將表明你不僅可以擁有開放權重模型,還可以擁有一種開放模型開發形式,即不需要一個巨大的單一實體(例如公司)來訓練前沿模型。這將改變AI的政治經濟學,并在政策上產生極其重大的影響,特別是在前沿能力的擴散方面。Epoch有一個關于分布式訓練的很好的分析,人們可以參考。
他們實際上如何使用LLM
帕特里克:你上一次與LLM進行的職業上重要的互動是什么?如果需要,可以隱去具體細節。在那次互動中,你與LLM的關系如何?
麥克爾·伯里:我現在使用Claude來制作我所有的圖表和表格。我會找到原始材料,但我不再花時間創建或設計專業的表格、圖表或視覺效果。我仍然不信任數字,需要檢查它們,但那個創造性的方面對我來說已經過去了。相關地,我會特別使用Claude來查找原始材料,因為如今很多原始材料不僅僅是在SEC或主流報告中。
帕特里克:我認為金融圈以外的人不理解,花費數十億美元雇傭世界上一些薪酬最高、受過最好教育的人作為MicrosoftPowerPoint和Excel專家是多么普遍。暫時還有價值,也許數據透視表和VLOOKUP()的“暗號”價值會比它們本身持續更久,但我在英格蘭銀行的演講也使用LLM制作了所有圖表。我們曾經要求人類花費數小時仔細調整它們,這感覺幾乎是離奇的。
德瓦克什:它們現在是我的個人一對一導師。我實際上曾嘗試為我想準備的不同科目聘請人類導師,我發現LLM的延遲和速度只會帶來定性上好得多的體驗。
我得到的數字等同物,就像人們愿意為Waymo支付比Uber高得多的溢價。這讓我傾向于認為,許多工作的人類溢價不僅不會高,實際上甚至是負的。
麥克爾·伯里:關于這一點,許多人指出藍領職業是防AI的選擇。鑒于我現在僅僅在Claude的陪伴下就能在電氣工作和家里的其他領域做這么多事情,我不那么確定了。
如果我是中產階級,面臨800美元的水管工或電工上門費,我可能會直接用Claude。
我喜歡我可以拍張照片并弄清楚我需要做的一切來修復它。
風險、權力以及如何塑造未來
帕特里克:相對知情的人士對AI風險的看法五花八門,從“它可能會在社交媒體上引起一些不快”到“如果中國在一項非常有用的新興技術及潛在軍事應用上擊敗美國將是一種恥辱”到“下行風險包括對人類珍視的一切的字面終結”。什么最讓你徹夜難眠?另外,如果你有五分鐘時間與高級政策制定者交談,你會建議重新分配哪些注意力和資源?
杰克:我主要擔心的是人們是否成功地“構建構建AI的AI”——完全閉合AI研發的循環(有時稱為遞歸自我改進AI)。要明確的是,我認為2026年1月地球上出現遞歸自我改進AI系統的可能性基本上為零,但我們確實看到AI在做AI研究組件方面變得越來越好的早期跡象,從內核開發到自主微調開放權重模型。
如果這東西繼續變得更好,你最終構建了一個可以構建自己的AI系統,那么AI的發展將非常急劇地加速,并且可能變得更難讓人理解。這將帶來一系列重大的政策問題,并可能導致世界上歸因于AI系統的經濟活動出現前所未有的階躍變化。
換句話說,如果我有五分鐘時間與政策制定者交談,我會基本上對他們說:“自我改進的AI聽起來像科幻小說,但技術上沒有任何東西說這是不可能的,如果它發生了,那將是一件大事,你應該關注它。你應該要求AI公司透明地說明他們在這里究竟看到了什么,并確保你有你信任的第三方可以測試AI系統的這些屬性。”
麥克爾·伯里:杰克,我想你可以讓政策制定者傾聽,我希望他們聽進去了。
就目前而言,AI并沒有讓我太擔心對人類的風險。我認為聊天機器人有可能讓人變笨——使用它們太多的醫生開始忘記他們實際的先天醫學知識。這不好,但不是災難性的。
涉及AGI或人工超級智能(ASI)的災難性擔憂對我來說并不太令人擔憂。我在冷戰時期長大,世界隨時可能爆炸。我們為此進行過學校演習。我和直升機在我們所有人頭頂噴灑馬拉硫磷一起踢足球。而且我在30多年前就看過《終結者》。《赤色黎明》似乎是可能的。我想人類會適應的。
如果我能讓高級政策制定者傾聽,我會要求他們拿出1萬億美元(因為萬億現在就像百萬一樣隨便扔),繞過所有的抗議和法規,在全國各地布滿小型核反應堆,同時為每個人建立一個全新的、最先進的電網。
盡快做到這一點,并用最新的物理和網絡安全措施保護這一切免受攻擊;甚至可能建立一支專門的核能防御部隊來保護每個設施,由聯邦資助。
這是獲得足夠電力以跟上中國的唯一希望,也是我們作為一個國家增長足夠快以最終償還債務并保證長期安全的唯一希望,即不讓電力成為我們創新的限制因素。
杰克:強烈同意能源部分(盡管我們對其他事情的主觀擔憂程度可能不同!)。AI將在經濟中發揮有意義的作用,它從根本上依賴于底層基礎設施將其高效廉價地交付給企業和消費者——類似于過去國家決定進行大規模電氣化、道路建設、下水道建設等(大規模資本支出項目!)。我們需要緊急為能源做同樣的事情。
我也認為大規模AI數據中心是新型能源技術非常有用的測試客戶,并且特別高興看到未來AI能源需求與核技術的融合(雙關語!)。更廣泛地說,我認為“經濟安全就是國家安全”,因此確保我們擁有建設AI經濟的基礎設施,將對我們的工業基礎和整體穩健性產生連鎖積極影響。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.