![]()
去年5月,當大模型廠商卷起價格戰時,Tokens大概率是出鏡率最高的英文單詞。
簡單來說,Tokens是大語言模型(LLM)用來切割自然語言文本的基本單位,可以直觀的理解為“字”或“詞”。
就像工業時代用“千瓦時”度量電力消耗,互聯網時代用“GB”度量數據流量,AI時代用“Token”來度量模型的工作量。一個Token可以理解為一個詞或詞片段(中文里可能是一個字或詞語)。
Tokens的調用量,本質反映了模型推理過程的計算量。而計算量的高或低,直接揭示了模型在實際應用中的能力、成本、速度和可行性。
因此,從Tokens角度跟蹤AI應用落地進展,就是一個非常深刻且切中要害的視角。
它意味著我們將AI從一種“黑箱魔法”或純粹的技術概念,拉回到了一個可度量、可分析、可商業化的實際生產要素的層面。
簡單來說,這意味著我們不再只關注AI“能做什么”,而是開始量化分析它“做了多少”、“效率多高”、“成本多少”以及“價值多大”。
誰在消耗tokens?
模型廠商以tokens為主要定價單位的底層邏輯是:模型調用時的tokens消耗量與相應算力投入存在強關聯性。而另一條暗線則是,算力投入鏈接了營收與tokens調用量。
換個說法就是,模型廠商營收與其tokens調用量呈現顯著同步的高增趨勢。
2024年6月至2025年6月,OpenAI大模型基礎設施——微軟Azure云的日均tokens調用量從0.55萬億上漲至4.40萬億,與此同時,OpenAI年化營收(ARR)從2024年12月的55億美元增長至2025年6月的突破100億美元,并在2025年8月達到120億-130億美元。
也就是說,誰消耗tokens更多誰就是基模廠商的主流商業模式。
就目前來看,OpenAI、Anthropic、字節跳動等基模廠商主要有C端和B端兩種,其中C端包括原生聊天助手、工具類原生應用(影視、圖片、編程等)的訂閱收入、付費功能以及與內部C端產品整合后的間接收入(如Google Chrome);
B端則包含為大客戶落地AI應用和企業直接API調用。
C端的tokens調用量,主要貢獻者有三個:
1 大流量池產品內部的附加AI功能
2024年5月谷歌搜索上線的AI Overview功能,至2025年二季度月活已超20億。國海證券預測,AI Overview功能單日tokens消耗量在1.6至9.6萬億區間內,在2025年7月Google日均tokens調用量中的占比為4.9%至29.4%。
抖音、剪映、今日頭條等同樣為大流量池C端產品,月活量級已達到10億(2025年3月)、7億(2025年7月)、2.6億(2024年下半年月均)。
百度之于搜索、美圖秀秀之于圖像,大流量C端應用的AI改造都是上述邏輯。據非凡產研,2025年7月百度AI搜索訪問量居國內智慧搜索品類第一、美圖秀秀的國內訪問量/存量月活、新增下載量依舊居圖像品類第一,且月度收入仍在環比提升。
2 原生聊天助手
ChatGPT聊天助手保有較大C端用戶規模,2025年7月APP+網頁端合計月活達10.15億,是OpenAI重要Tokens調用量驅動因素。
3 視頻賽道擁有較大用戶基礎的新興應用
除產品內置AI功能、聊天助手外,圖像、視頻、陪伴、辦公、教育賽道內均出現了有較大潛力的C端新興AI應用。
字節跳動進行多維度布局,推出醒圖/星繪(圖像)、即夢(視頻)、貓箱(陪伴)、豆包愛學(教育)等AI應用。
其中醒圖、即夢7月月活達到4924萬(當月收入59萬美元)、1393萬(當月收入58萬美元),已成為圖像、視頻賽道內擁有較大用戶量級的產品;貓箱7月月活794萬,當月收入達112萬美元,商業轉化效率較高。
例如接入gpt-image-1、Leonardo.AI的Canva,用于文生圖、文生視頻、圖像補全等除文本模態外的編輯、生成場景。根據Gemini、Kimi等大模型的折算口徑,單張圖片的輸出(輸入)tokens消耗量在1024(kimi)—1290(Gemini)之間。
B端tokens調用量主要源于企業級AI應用。其所呈現出來的特征,一是滲透率較高,Google發布的“全球601個領先企業AI應用案例”顯示,各大規模的企業已開始嘗試將生成式AI投入生產,涉及汽車與物流、商業與專用服務、金融服務、醫療與生命科學、酒店與旅游、制作、工業與電子、媒體、營銷與游戲、零售、科技、通信、公共部門與非盈利組織”11大行業。
二是基模廠商的B端收入比例較大。
數據預測2025年OpenAI來自B端的ARR收入占比達54%;Anthropic占比達80%。谷歌透露Gemini企業客戶超過8.5萬家,推動調用量同比增長35倍;火山引擎大模型收入2024年在國內公有云市場中份額排名第一,占比達46.4%(外部使用量,不包括豆包等內部APP)。
技術迭代解鎖應用需求
越來越多的tokens調用量,并非因為更大參數的大模型,而是推理增強、多模態、Agent化、長上下文轉型共同作用的結果。用一句話概括既是:技術迭代解鎖應用需求。
以GPT-5和Grok4為例:
GPT-5把“更強的推理能力(通過引入test-timecompute)+多模態+更長上下文+更嚴格的安全控制等”置于產品默認層面;
Grok4核心升級則是把“原生工具調用+多代理協同推理+超長上下文等”做成一個可商用產品。
GPT-5和Grok4如此設置的目標,是希望借助技術迭代增強AI在更復雜、更具備“生產力”的關鍵場景下的實用性、準確性,并且使得AI應用加速落地。
舉個例子,假設原來1輪客服對話服務消耗200tokens,升級后客服問答場景中的大模型推理過程將擴展成:
客戶意圖澄清+內部知識庫檢索+邏輯校驗+答案潤色4個環節,即4輪內部推理,每輪150~200tokens,最終消耗600至800tokens。
類似的案例在對應的推理增強、多模態、Agent化、長上下文轉型中都能找到,其最終結果是雙向增強,存量AI應用場景的解決方案更好,對應的tokens調用量也倍數增長。
隨著技術趨勢的不斷推進,大量原本因“不準、不全、不落地”而被擱置的需求將被解鎖。當準確率、可控性跨過可行性線后,用戶特別是B端企業(有生產力場景需求)或將從觀望轉為批量采購。
總結起來就四點,推理增強把能用變成敢用、多模態把單點工具變成端到端工作流、Agent化把對話變成可審計的業務系統、長上下文把項目級任務放進模型。
與此同時,雖然tokens調用量倍數增長,但定價卻是直線下降。
比如xAI的Grok-4-Fast,輸出百萬Token僅需0.5美元(約3.5元人民幣),但比起國內基模廠商來還是不夠狠,去年9月阿里通義千問主力模型最高降價85%,Qwen-Turbo低至0.3元/百萬Tokens。
其中一部分原因是基模廠商的價格戰,讓“一百萬Tokens的錢,都買不了缽缽雞”,也有一部分是因為模型廠優化算力成本的結果。
2024-2025年,為優化大模型算力成本,模型廠商進行了壓縮大模型單次推理計算量(稀疏化、量化、投機解碼)、提升GPU利用率(連續批處理、編譯器融合)以及換用租金更便宜的云、芯片(國產替代、專用ASIC)等方面的嘗試,平均tokens定價實現了較大降幅。
此外模型廠商還進一步通過“模型分層+價格分層”的多樣化策略壓低模型的使用門檻,讓中小預算客戶也可接入,比如:OpenAI 用GPT-5-mini/nano覆蓋輕量場景;Google以Gemini 2.5 Flash 主打“極速低價”;Anthropic用Claude 3.5 Haiku 提供中等規模、高性價比選項等。
因此一個AI飛輪就已成型,當模型使用成本下降,企業/個人調用ROI隨之上升,更多應用需求從觀望向采購轉化,促進tokens調用量倍數增長的同時,AI應用隨之迎來生態繁榮。
Token經濟學就意味著,可以直觀的獲得以下幾個關鍵進展的洞察:成本與經濟效益的量化、技術效能與模型能力的評估、應用場景的深化與演化以及商業模式與市場格局的清晰化。其中成本與經濟效益的量化是最直接、最商業化的意義。
尾聲
如果把AI大模型想象成一個“知識電廠”,Token就是它發出的“度電”,你的提示詞就是“合上電閘”的指令,AI應用開發者就像是“家電制造商”。
從Tokens角度跟蹤進展,就相當于電力公司和社會在跟蹤:
全社會總用電量(AI應用的總規模)增長了多少?
哪種家電(哪種AI應用)最耗電(消耗Token最多)?
發電技術是否進步了(模型效率)?每度電的成本是否下降?
新的高能效家電(高效的AI應用)是否被開發出來?
從Tokens角度跟蹤AI應用落地進展,意味著AI行業正在走向成熟、務實和工業化。它摒棄了早期對參數規模和技術炫技的過度關注,轉而聚焦于一個更根本的問題:如何以可承受的成本,可靠地利用AI能力來解決實際問題并創造商業價值。
這標志著AI不再是實驗室里的玩具,而是真正成為了驅動下一代技術和商業創新的基礎效用。作為從業者、投資者或觀察者,理解Token經濟學,就如同在互聯網時代理解帶寬成本一樣,至關重要。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.