徹底醒來的谷歌,不僅讓 OpenAI 開始焦慮,現在還要來搶英偉達的飯碗了。
11 月下旬的一周,谷歌連續收獲了幾條好消息。有報道稱 Meta 正在考慮采購谷歌的 TPU 芯片,交易金額可能達到數十億美元。這條消息讓英偉達股價下跌近 7%,也讓谷歌母公司 Alphabet 的市值單日增加數百億美元。幾天后,Alphabet 股價繼續上漲,市值逼近 4 萬億美元大門。自 10 月中旬以來,這家公司的市值已經增加了近 1 萬億美元。
![]()
圖丨英偉達與 Alphabet 一年股票對比(來源:Semafor)
更早些時候,谷歌發布的 Gemini 3 模型在業內引發了不小的震動。這款模型在 LMArena 等主要 AI 排行榜上名列前茅,在推理、編程等方面的表現獲得了廣泛認可。
對于一家在過去兩年里被反復質疑“落后了”的公司來說,如今的局面可謂是一場相當漂亮的翻身仗。
自從 ChatGPT 在 2022 年底橫空出世以來,關于谷歌“掉隊”的聲音就沒停過。甚至谷歌自己的工程師和前 CEO 都曾公開表達過擔憂。畢竟,盡管神經網絡的核心技術 Transformer 最早由谷歌研究人員發明,但率先將其商業化并引爆市場的卻是 OpenAI。
在相當長一段時間里,ChatGPT 幾乎成了 AI 聊天機器人的代名詞,而谷歌的 Bard 則被視為一個匆忙推出的追趕者。
但現在情況開始發生變化。Counterpoint Research 分析師 Neil Shah 的評價道:“谷歌可以說一直是這場 AI 競賽中的黑馬,一個沉睡的巨人。現在它徹底醒了。”
谷歌 CEO 桑達爾·皮查伊在上季度財報會議上強調,公司采取的是“全棧式”的 AI 策略。這個“全棧”絕非虛言。谷歌既開發 AI 應用(比如廣受歡迎的 Nano Banana、NotebookLM),也訓練底層模型,還運營云計算基礎設施,甚至自己設計芯片。
相比之下,OpenAI 雖然模型能力強,但需要依賴微軟的云服務和英偉達的芯片。這種垂直整合給了谷歌更大的控制權和潛在的成本優勢。
TPU 就是這個全棧能力的一個關鍵部分。谷歌從 2015 年就開始在內部使用這種自研芯片,最初是為了加速搜索引擎的運算。
十年過去,TPU 已經迭代到第七代,從單純的推理芯片發展成能夠勝任大規模訓練任務的加速器。谷歌的 Gemini 系列模型完全在 TPU 上訓練,本身也證明了這些芯片的能力。
![]()
圖丨谷歌的第七代 TPU“Ironwood”(來源:Google)
長期以來,TPU 主要服務于谷歌內部。但隨著 Gemini 模型的成功和 AI 需求的爆發,谷歌開始更積極地向外推廣 TPU。今年 10 月,AI 公司 Anthropic 宣布將使用多達 100 萬顆 TPU,交易價值數百億美元。
Ilya Sutskever 創立的 Safe Superintelligence,以及 Salesforce 等公司也成了客戶。Meta 的潛在采購則可能是迄今為止最大的一筆外部訂單。
這些進展對谷歌云業務來說意義重大。谷歌云第三季度收入 152 億美元,同比增長 34%,但仍然排在微軟和亞馬遜 AWS 之后。如果能通過 TPU 吸引更多大客戶,不僅能增加收入,還能提升谷歌云在市場上的地位。
據報道,谷歌云的一些負責人內部討論過,希望 TPU 能搶下英偉達年收入的 10%。英偉達 2025 年 AI 相關收入預計達到 490 億美元,10% 就是近 50 億美元,這個數字已經超過了目前 TPU 業務的估算規模。
谷歌的數據優勢也不容小覷。搜索引擎、Android 手機、YouTube,這些產品每天產生的數據為訓練 AI 模型提供了豐富的素材。更重要的是,谷歌往往把這些數據留給自己用,而不是像一些競爭對手那樣需要付費獲取訓練數據。
不過,技術上的進步并不自動轉化為市場上的成功,谷歌要想在各方面取得領先,還需要付出更多的努力。在消費者層面,Gemini 仍然落后于 ChatGPT。
谷歌上周宣布 Gemini 應用有 6.5 億用戶,OpenAI 則說 ChatGPT 每周有 8 億用戶。根據 Sensor Tower 的數據,今年 10 月 Gemini 應用的月下載量為 7,300 萬次,而 ChatGPT 是 9,300 萬次。
企業市場的情況也類似。雖然谷歌云增長不錯,但在企業 AI 采用方面,谷歌仍然面臨微軟和 Anthropic 的競爭。微軟與 OpenAI 的深度綁定讓企業客戶更容易接入 AI 能力,而 Anthropic 的 Claude 模型已經在一些企業應用場景中獲得了廣泛的認可,幾乎成為企業的首選項之一。
TPU 的商業化同樣面臨挑戰。雖然谷歌今年推出了 TPU@Premises 計劃,允許客戶在自己的數據中心部署 TPU,但這還是個新項目,大部分開發者目前仍然只能通過谷歌云租用。
而且即便是自建部署,也需要依賴谷歌的軟件棧和支持體系,某種程度上仍然被鎖定在谷歌的生態里。相比之下,英偉達的 GPU 可以在任何云平臺使用,轉換成本要低得多。
對于 Meta 這樣已經擁有龐大 GPU 集群的公司來說,大規模遷移到 TPU 還有實際的技術障礙。TPU 使用環形網絡拓撲和光電路交換技術來連接大量芯片,這與傳統的 GPU 集群架構完全不同。
雖然 Meta 開發的 PyTorch 框架可以在 TPU 上運行,但需要通過一個轉換層,這可能帶來額外的性能開銷和開發復雜度。
更關鍵的是,英偉達的 CUDA 軟件平臺已經成為 AI 開發的事實標準,全球數百萬開發者熟悉這套工具。谷歌雖然提供了兼容方案,但 TPU 的軟件生態仍然小眾得多。
一位業內人士坦言,如果要從 GPU 遷移到 TPU,需要投入大量人力重新優化代碼,這對很多公司來說是筆不小的成本。
The Register 的分析指出,即便 Meta 真的在談判,更可能的場景是讓 Llama 模型能在 TPU 上更好地運行推理任務,方便企業客戶部署,而不是在自己的數據中心大規模替換 GPU。Meta 本身也在開發 MTIA 自研芯片,如果真要減少對英偉達的依賴,自研芯片可能是更合理的長期選擇。
而且英偉達也不會對谷歌的動向坐以待斃,此前 OpenAI 計劃使用 TPU 的消息傳出后不久后,財力雄厚的英偉達就宣布將向 OpenAI 投資最高 1,000 億美元,換取后者使用英偉達下一代芯片的承諾。
Anthropic 與谷歌達成 TPU 協議后,英偉達很快宣布向其投資數十億美元,同樣換來了繼續使用英偉達 GPU 的承諾。今年 11 月,英偉達又宣布與微軟合作,向 Anthropic 提供 300 億美元的 Azure 計算容量。
英偉達在公開聲明中表現得相當自信:“我們為谷歌的成功感到高興——他們在 AI 領域取得了巨大進步,我們將繼續向谷歌供貨。英偉達領先行業整整一代——它是唯一能運行所有 AI 模型并在任何地方執行計算的平臺。
相比專用集成電路(ASIC),英偉達提供更強的性能、通用性和可替換性。”這番表態既是對谷歌的禮貌性恭維,也強調了自己在通用性和生態系統上的優勢。
![]()
圖丨相關推文(來源:X)
但目前所有主要玩家都在同時押注不同的方案,這對谷歌來說是個難得的機會。Anthropic 既用 TPU 也用英偉達 GPU,還從亞馬遜租用 Trainium 芯片。谷歌既部署 TPU 也采購英偉達 GPU。
亞馬遜開發了自研芯片但仍在 AWS 上提供英偉達服務。這種“對沖”反映了一個現實:AI 芯片市場的格局還遠未定型,沒人敢把寶全壓在一種方案上。
對谷歌來說,TPU 的商業化只是其重新找回競爭力的一個側面。真正讓市場重新審視這家公司的,是它在模型能力、云服務、數據優勢、芯片技術等多個維度上展現出的全棧整合能力。
從 ChatGPT 發布到現在,谷歌用了將近兩年時間調整方向、重整旗鼓。現在這個“沉睡的巨人”已經醒來,接下來的競爭會更加激烈。至少可以確定的是,沒人會再敢說谷歌“掉隊了”。
參考資料:
1.https://www.theinformation.com/articles/google-encroaches-nvidias-turf-new-ai-chip-push?rc=jn0pp4
2.https://www.theinformation.com/articles/googles-meta-talks-put-ball-nvidias-court?rc=jn0pp4
3.https://www.theregister.com/2025/11/25/nvidia_google_tpu_meta/
4.https://www.bloomberg.com/news/articles/2025-11-25/google-the-sleeping-giant-in-global-ai-race-now-fully-awake
5.https://www.semafor.com/article/11/25/2025/google-is-coming-for-nvidia
運營/排版:何晨龍
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.