![]()
去年5月,當(dāng)大模型廠商卷起價(jià)格戰(zhàn)時(shí),Tokens大概率是出鏡率最高的英文單詞。
簡(jiǎn)單來說,Tokens是大語言模型(LLM)用來切割自然語言文本的基本單位,可以直觀的理解為“字”或“詞”。
就像工業(yè)時(shí)代用“千瓦時(shí)”度量電力消耗,互聯(lián)網(wǎng)時(shí)代用“GB”度量數(shù)據(jù)流量,AI時(shí)代用“Token”來度量模型的工作量。一個(gè)Token可以理解為一個(gè)詞或詞片段(中文里可能是一個(gè)字或詞語)。
Tokens的調(diào)用量,本質(zhì)反映了模型推理過程的計(jì)算量。而計(jì)算量的高或低,直接揭示了模型在實(shí)際應(yīng)用中的能力、成本、速度和可行性。
因此,從Tokens角度跟蹤AI應(yīng)用落地進(jìn)展,就是一個(gè)非常深刻且切中要害的視角。
它意味著我們將AI從一種“黑箱魔法”或純粹的技術(shù)概念,拉回到了一個(gè)可度量、可分析、可商業(yè)化的實(shí)際生產(chǎn)要素的層面。
簡(jiǎn)單來說,這意味著我們不再只關(guān)注AI“能做什么”,而是開始量化分析它“做了多少”、“效率多高”、“成本多少”以及“價(jià)值多大”。
誰在消耗tokens?
模型廠商以tokens為主要定價(jià)單位的底層邏輯是:模型調(diào)用時(shí)的tokens消耗量與相應(yīng)算力投入存在強(qiáng)關(guān)聯(lián)性。而另一條暗線則是,算力投入鏈接了營(yíng)收與tokens調(diào)用量。
換個(gè)說法就是,模型廠商營(yíng)收與其tokens調(diào)用量呈現(xiàn)顯著同步的高增趨勢(shì)。
2024年6月至2025年6月,OpenAI大模型基礎(chǔ)設(shè)施——微軟Azure云的日均tokens調(diào)用量從0.55萬億上漲至4.40萬億,與此同時(shí),OpenAI年化營(yíng)收(ARR)從2024年12月的55億美元增長(zhǎng)至2025年6月的突破100億美元,并在2025年8月達(dá)到120億-130億美元。
也就是說,誰消耗tokens更多誰就是基模廠商的主流商業(yè)模式。
就目前來看,OpenAI、Anthropic、字節(jié)跳動(dòng)等基模廠商主要有C端和B端兩種,其中C端包括原生聊天助手、工具類原生應(yīng)用(影視、圖片、編程等)的訂閱收入、付費(fèi)功能以及與內(nèi)部C端產(chǎn)品整合后的間接收入(如Google Chrome);
B端則包含為大客戶落地AI應(yīng)用和企業(yè)直接API調(diào)用。
C端的tokens調(diào)用量,主要貢獻(xiàn)者有三個(gè):
1 大流量池產(chǎn)品內(nèi)部的附加AI功能
2024年5月谷歌搜索上線的AI Overview功能,至2025年二季度月活已超20億。國海證券預(yù)測(cè),AI Overview功能單日tokens消耗量在1.6至9.6萬億區(qū)間內(nèi),在2025年7月Google日均tokens調(diào)用量中的占比為4.9%至29.4%。
抖音、剪映、今日頭條等同樣為大流量池C端產(chǎn)品,月活量級(jí)已達(dá)到10億(2025年3月)、7億(2025年7月)、2.6億(2024年下半年月均)。
百度之于搜索、美圖秀秀之于圖像,大流量C端應(yīng)用的AI改造都是上述邏輯。據(jù)非凡產(chǎn)研,2025年7月百度AI搜索訪問量居國內(nèi)智慧搜索品類第一、美圖秀秀的國內(nèi)訪問量/存量月活、新增下載量依舊居圖像品類第一,且月度收入仍在環(huán)比提升。
2 原生聊天助手
ChatGPT聊天助手保有較大C端用戶規(guī)模,2025年7月APP+網(wǎng)頁端合計(jì)月活達(dá)10.15億,是OpenAI重要Tokens調(diào)用量驅(qū)動(dòng)因素。
3 視頻賽道擁有較大用戶基礎(chǔ)的新興應(yīng)用
除產(chǎn)品內(nèi)置AI功能、聊天助手外,圖像、視頻、陪伴、辦公、教育賽道內(nèi)均出現(xiàn)了有較大潛力的C端新興AI應(yīng)用。
字節(jié)跳動(dòng)進(jìn)行多維度布局,推出醒圖/星繪(圖像)、即夢(mèng)(視頻)、貓箱(陪伴)、豆包愛學(xué)(教育)等AI應(yīng)用。
其中醒圖、即夢(mèng)7月月活達(dá)到4924萬(當(dāng)月收入59萬美元)、1393萬(當(dāng)月收入58萬美元),已成為圖像、視頻賽道內(nèi)擁有較大用戶量級(jí)的產(chǎn)品;貓箱7月月活794萬,當(dāng)月收入達(dá)112萬美元,商業(yè)轉(zhuǎn)化效率較高。
例如接入gpt-image-1、Leonardo.AI的Canva,用于文生圖、文生視頻、圖像補(bǔ)全等除文本模態(tài)外的編輯、生成場(chǎng)景。根據(jù)Gemini、Kimi等大模型的折算口徑,單張圖片的輸出(輸入)tokens消耗量在1024(kimi)—1290(Gemini)之間。
B端tokens調(diào)用量主要源于企業(yè)級(jí)AI應(yīng)用。其所呈現(xiàn)出來的特征,一是滲透率較高,Google發(fā)布的“全球601個(gè)領(lǐng)先企業(yè)AI應(yīng)用案例”顯示,各大規(guī)模的企業(yè)已開始嘗試將生成式AI投入生產(chǎn),涉及汽車與物流、商業(yè)與專用服務(wù)、金融服務(wù)、醫(yī)療與生命科學(xué)、酒店與旅游、制作、工業(yè)與電子、媒體、營(yíng)銷與游戲、零售、科技、通信、公共部門與非盈利組織”11大行業(yè)。
二是基模廠商的B端收入比例較大。
數(shù)據(jù)預(yù)測(cè)2025年OpenAI來自B端的ARR收入占比達(dá)54%;Anthropic占比達(dá)80%。谷歌透露Gemini企業(yè)客戶超過8.5萬家,推動(dòng)調(diào)用量同比增長(zhǎng)35倍;火山引擎大模型收入2024年在國內(nèi)公有云市場(chǎng)中份額排名第一,占比達(dá)46.4%(外部使用量,不包括豆包等內(nèi)部APP)。
技術(shù)迭代解鎖應(yīng)用需求
越來越多的tokens調(diào)用量,并非因?yàn)楦髤?shù)的大模型,而是推理增強(qiáng)、多模態(tài)、Agent化、長(zhǎng)上下文轉(zhuǎn)型共同作用的結(jié)果。用一句話概括既是:技術(shù)迭代解鎖應(yīng)用需求。
以GPT-5和Grok4為例:
GPT-5把“更強(qiáng)的推理能力(通過引入test-timecompute)+多模態(tài)+更長(zhǎng)上下文+更嚴(yán)格的安全控制等”置于產(chǎn)品默認(rèn)層面;
Grok4核心升級(jí)則是把“原生工具調(diào)用+多代理協(xié)同推理+超長(zhǎng)上下文等”做成一個(gè)可商用產(chǎn)品。
GPT-5和Grok4如此設(shè)置的目標(biāo),是希望借助技術(shù)迭代增強(qiáng)AI在更復(fù)雜、更具備“生產(chǎn)力”的關(guān)鍵場(chǎng)景下的實(shí)用性、準(zhǔn)確性,并且使得AI應(yīng)用加速落地。
舉個(gè)例子,假設(shè)原來1輪客服對(duì)話服務(wù)消耗200tokens,升級(jí)后客服問答場(chǎng)景中的大模型推理過程將擴(kuò)展成:
客戶意圖澄清+內(nèi)部知識(shí)庫檢索+邏輯校驗(yàn)+答案潤(rùn)色4個(gè)環(huán)節(jié),即4輪內(nèi)部推理,每輪150~200tokens,最終消耗600至800tokens。
類似的案例在對(duì)應(yīng)的推理增強(qiáng)、多模態(tài)、Agent化、長(zhǎng)上下文轉(zhuǎn)型中都能找到,其最終結(jié)果是雙向增強(qiáng),存量AI應(yīng)用場(chǎng)景的解決方案更好,對(duì)應(yīng)的tokens調(diào)用量也倍數(shù)增長(zhǎng)。
隨著技術(shù)趨勢(shì)的不斷推進(jìn),大量原本因“不準(zhǔn)、不全、不落地”而被擱置的需求將被解鎖。當(dāng)準(zhǔn)確率、可控性跨過可行性線后,用戶特別是B端企業(yè)(有生產(chǎn)力場(chǎng)景需求)或?qū)挠^望轉(zhuǎn)為批量采購。
總結(jié)起來就四點(diǎn),推理增強(qiáng)把能用變成敢用、多模態(tài)把單點(diǎn)工具變成端到端工作流、Agent化把對(duì)話變成可審計(jì)的業(yè)務(wù)系統(tǒng)、長(zhǎng)上下文把項(xiàng)目級(jí)任務(wù)放進(jìn)模型。
與此同時(shí),雖然tokens調(diào)用量倍數(shù)增長(zhǎng),但定價(jià)卻是直線下降。
比如xAI的Grok-4-Fast,輸出百萬Token僅需0.5美元(約3.5元人民幣),但比起國內(nèi)基模廠商來還是不夠狠,去年9月阿里通義千問主力模型最高降價(jià)85%,Qwen-Turbo低至0.3元/百萬Tokens。
其中一部分原因是基模廠商的價(jià)格戰(zhàn),讓“一百萬Tokens的錢,都買不了缽缽雞”,也有一部分是因?yàn)槟P蛷S優(yōu)化算力成本的結(jié)果。
2024-2025年,為優(yōu)化大模型算力成本,模型廠商進(jìn)行了壓縮大模型單次推理計(jì)算量(稀疏化、量化、投機(jī)解碼)、提升GPU利用率(連續(xù)批處理、編譯器融合)以及換用租金更便宜的云、芯片(國產(chǎn)替代、專用ASIC)等方面的嘗試,平均tokens定價(jià)實(shí)現(xiàn)了較大降幅。
此外模型廠商還進(jìn)一步通過“模型分層+價(jià)格分層”的多樣化策略壓低模型的使用門檻,讓中小預(yù)算客戶也可接入,比如:OpenAI 用GPT-5-mini/nano覆蓋輕量場(chǎng)景;Google以Gemini 2.5 Flash 主打“極速低價(jià)”;Anthropic用Claude 3.5 Haiku 提供中等規(guī)模、高性價(jià)比選項(xiàng)等。
因此一個(gè)AI飛輪就已成型,當(dāng)模型使用成本下降,企業(yè)/個(gè)人調(diào)用ROI隨之上升,更多應(yīng)用需求從觀望向采購轉(zhuǎn)化,促進(jìn)tokens調(diào)用量倍數(shù)增長(zhǎng)的同時(shí),AI應(yīng)用隨之迎來生態(tài)繁榮。
Token經(jīng)濟(jì)學(xué)就意味著,可以直觀的獲得以下幾個(gè)關(guān)鍵進(jìn)展的洞察:成本與經(jīng)濟(jì)效益的量化、技術(shù)效能與模型能力的評(píng)估、應(yīng)用場(chǎng)景的深化與演化以及商業(yè)模式與市場(chǎng)格局的清晰化。其中成本與經(jīng)濟(jì)效益的量化是最直接、最商業(yè)化的意義。
尾聲
如果把AI大模型想象成一個(gè)“知識(shí)電廠”,Token就是它發(fā)出的“度電”,你的提示詞就是“合上電閘”的指令,AI應(yīng)用開發(fā)者就像是“家電制造商”。
從Tokens角度跟蹤進(jìn)展,就相當(dāng)于電力公司和社會(huì)在跟蹤:
全社會(huì)總用電量(AI應(yīng)用的總規(guī)模)增長(zhǎng)了多少?
哪種家電(哪種AI應(yīng)用)最耗電(消耗Token最多)?
發(fā)電技術(shù)是否進(jìn)步了(模型效率)?每度電的成本是否下降?
新的高能效家電(高效的AI應(yīng)用)是否被開發(fā)出來?
從Tokens角度跟蹤AI應(yīng)用落地進(jìn)展,意味著AI行業(yè)正在走向成熟、務(wù)實(shí)和工業(yè)化。它摒棄了早期對(duì)參數(shù)規(guī)模和技術(shù)炫技的過度關(guān)注,轉(zhuǎn)而聚焦于一個(gè)更根本的問題:如何以可承受的成本,可靠地利用AI能力來解決實(shí)際問題并創(chuàng)造商業(yè)價(jià)值。
這標(biāo)志著AI不再是實(shí)驗(yàn)室里的玩具,而是真正成為了驅(qū)動(dòng)下一代技術(shù)和商業(yè)創(chuàng)新的基礎(chǔ)效用。作為從業(yè)者、投資者或觀察者,理解Token經(jīng)濟(jì)學(xué),就如同在互聯(lián)網(wǎng)時(shí)代理解帶寬成本一樣,至關(guān)重要。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.