撰文| 郝 鑫
編輯| 王 潘
在大模型領域,Tokens是衡量文本處理與計算成本的核心計量單位。
行業發展通常遵循從概念驗證到規模化應用的路徑,因此,在一段時間內,Tokens消耗量被視為衡量大模型行業進展與市場活躍度的關鍵指標。
火山引擎總裁譚待在“2025年冬季FORCE原動力大會”現場表示,模型只有在被調用的時候才能發揮價值,所以越有價值的模型調用次數就越多。
最新數據顯示,截止到今年12月,豆包大模型日均調用數已超過50萬億,自發布至今已經實現了417倍增長。這一數據,僅次于OpenAI和Google。
但如果僅把目光停留在消耗總量,把Tokens視作消耗算力的成本單位,就很容易忽視大模型發展中“質”的問題。
某行業人士透露,在Tokens規模成為行業指標的背景下,部分公司通過調整統計口徑等方式,使得調用量數據大幅提升,存在一定“水分”。此外,不少Tokens消耗實際來自免費試用或簡單搜索場景,真實商業轉化有限,整體呈現出“虛胖”態勢。
與此不同,火山引擎在關注Tokens調用規模的同時,更強調其背后的“含金量”——即Tokens是否真正用在了企業核心業務場景、是否帶來實際價值。
譚待表示,2025年已有超過100萬家企業和個人通過火山引擎使用大模型服務,覆蓋百余行業。
![]()
其中,Tokens消耗超萬億的客戶已超過百家,這些高價值客戶主要來自互聯網、智能制造、消費電子、汽車等產業。其Tokens消耗多集中于產品研發、生產流程優化、客戶服務升級等深度業務環節,真正推動了大模型技術與產業需求的緊密結合。
因此,火山引擎所關注的不僅是“用了多少”,更是“用在何處、產生何效”,這背后離不開火山引擎上下對Tokens的精準認知。體現在行動上,火山引擎也是國內最早把Tokens作為業務落地考核指標的云廠商。
為什么Tokens調用量在AI時代如此重要?火山引擎作為云計算市場的后來者,為什么能以Tokens的調用量為支點,迅速覆蓋千行百業,率先完成Tokens價值轉化?
Tokens經濟時代
大模型技術催生了對“智能”的新需求,常常表現為對通用認知能力規模化、服務化的調用。
對外輸出大模型能力依賴于強大的云計算架構,但這種新興的“智能交付”邏輯,與傳統的“資源交付”邏輯存在著矛盾。
傳統由IaaS、PaaS、SaaS組成的分層解耦云架構中,本質是將物理資源虛擬化、服務化后進行分層交付。用戶購買的是容量和時長,量化為消耗多少算力,至于用這些能力能做什么,云廠商并不關心。
有人認為,這種以資源為驅動的架構,與智能的邏輯背道而馳,在AI時代反而會阻礙AI應用的創新速度。因此,以火山引擎為代表的廠商,提出了“AI云原生架構”的概念。
AI云原生架構的顛覆在于,其核心設計目標是為了高效、大規模地生產和消費“智能”。
按照火山引擎的理解,新架構中,模型是軟件的核心,MaaS是使用模型的最佳方式,算力以Tokens的方式轉換為智能;同時圍繞Agent開發和Agent運營,云平臺和中間件進一步把Tokens組裝成Agents,并實現Agent和現有工作流、Agent和Agent之間的智能互通。
類比工業時代以“千瓦時”度量電力消耗,互聯網時代以“GB”計算數據流量,AI云原生以Tokens作為最小單位來衡量智能規模,具有自然的延續性與合理性。這意味著,無論底層用了多少算力、多復雜的模型,最終用戶獲得的價值可直觀地量化為“處理了多少Tokens”。
在這樣的思考下,火山引擎升級了AI云原生全棧服務:在MaaS服務上,推出企業自有模型的推理代工服務、強化學習平臺;面向Agent開發,發布企業級AI Agent平臺AgentKit;面向Agent運營,發布HiAgent“1+N+X”智能體工作站,推動Agent大規模落地。
![]()
火山引擎在市場早期,便靈敏地識別出Tokens是連接模型、客戶與商業化的通用度量衡。先一步認識到,云計算的商業模式將從出租算力轉變為售賣智能能力,Tokens消耗量直接對應其核心收入。
基于此,火山引擎將競爭的焦點轉移到了:誰能提供更強大、更便宜的模型?如何以更低的算力成本生成更多Tokens?以及如何客戶在平臺上消耗更多Tokens?
在內部,更是通過將Tokens調用量內化為考核“指揮棒”,驅動整個組織從技術、產品到銷售,都圍繞“如何幫助客戶高效消耗更多有價值Tokens”展開,從而形成落地的閉環。
事實證明,火山引擎Tokens策略行之有效。根據IDC報告,火山引擎在中國的公有云大模型的服務調用量穩居第一,市場份額從去年的46.4%提升到今年的49.2%。也就是說,在中國公有云上每產生的兩個Tokens就有一個是火山引擎。這一統計口徑,指的是對外部客戶提供的大模型服務調用量,不包含自有業務,更能反映出產業端的實際應用情況。
![]()
當Tokens成為大模型時代通用的度量單位后,其流動數據便具有堪比“用電量”“流量”一般的指向性意義。換而言之,Tokens流向哪里,哪里便是產業發展方向。
例如,如果流向“文生視頻”模型的Tokens暴增,就表明該應用正處爆發期;如果流向“代碼生成”的Tokens持續穩定,表明開發者工具已進入生產級采納階段;Tokens消耗在推理端比例大于訓練段,則從側面反映出行業從模型研發走向了規模化應用。
更進一步,若觀察視角跳出Tokens消耗量的堆砌,而作為衡量AI真實生產力和商業滲透率的指標。那每一次的Tokens調用都對應一次實際的服務交付與價值創造,這使得Tokens的流向成為觀測AI產業脈搏最直接的“心電圖”。
火山“上”車
以火山引擎披露為例,Tokens大量流入到了汽車、智能終端、金融、教育、消費、游戲、泛互聯網等行業。
汽車領域是近幾年火山引擎著重發力的領域之一。數據顯示,火山引擎助力超九成主流車企進行AI升級,大模型覆蓋了從汽車云、智能座艙、企業應用、汽車出海、具身智能等全流程場景。
在此次大會中,火山引擎在AI安全領域新推出了“MaaS on AICC”的服務,其核心是讓企業能夠在加密環境下進行模型推理任務,提升安全指數。
上汽大眾是其中一個案例,通過使用MaaS on AICC服務,對內部5萬多份機密知識數據實現了安全保護。由此,上汽大眾為上千家經銷商,上萬名銷售人員提供了智能知識服務。相比私有化的部署方案,火山引擎的新方案,幫助他們節約了60%以上的成本,還降低了AI應用創新的門檻。
火山引擎所合作的企業中,既包括了寶馬、奔馳、奧迪、比亞迪這類傳統車企,又涵蓋了特斯拉、“蔚小理”這類的新勢力。豆包大模型“上車”幾乎成為了每家車企的標配,在2025年新車智能座艙搭載量位居行業第一。
我們了解到,火山引擎在落地行業中逐步建立起了基礎模型、C2B和場景經驗迭代的優勢。
首先技術的底氣來自于不斷迭代更新的豆包大模型能力,模型上限還在不斷突破,每一次升級都有可能帶來直接的體驗提升。
在火山引擎內部有一個理念叫“基模的共同搭建”,即To C和To B底層共用一套基礎模型。這樣一來,在C端產品積累的產品經驗和know how,可以直接在B端服務中去復用,以此來提升交付體驗。豆包大模型“上車”速度如此之快,背后離不開在豆包AI助手上的持續打磨,相應地豆包的名氣也帶給了合作車企的曝光度。
火山引擎能夠像“滾雪球”般地迅速覆蓋行業,離不開其打造合作標桿的策略。僅在車企領域,火山引擎就與上汽榮威推出了搭載豆包深度思考模型的AI智艙,與寶馬探索AI汽車營銷創新,與極氪汽車打造企業級“數字洞察智能體”等。
火山引擎相關人士告訴我們,“在與車企的合作過程中,我們會積累起不同車企的用戶交互體驗經驗和場景落地經驗,最終把這些都轉化為整個火山引擎的To B交付產品經驗”,正是有了不斷地經驗迭代,才能在下一次新合作中命中客戶的需求點。
To B的業務充滿了復雜性,整體上時間緊、任務重,在合作中既要厘清雙方的職責所在,又要在關鍵問題上達成一致,最后能上線一款融合雙方優勢的產品,難度系數遠比想象中高。
上汽榮威的智能座艙是火山引擎打造的標桿型合作案例,該款車型首個搭載了“豆包深度思考模型”,雙方共同定義了“帶推理功能”的車端助手產品。在這個合作中,車企負責做產品體驗的定義和大方向上的把控,火山引擎主要負責大模型賦能交互其中一環的體驗設計。
![]()
在上汽榮威案例里面,涉及了大模型車控、大模型閑聊和大模型聯網問答等諸多場景。從獲得用戶指令到響應需求,火山引擎把整個過程拆解為了模型的理解、推理和表達三步。用戶提出指令后,模型先得理解清楚意圖,然后針對用戶行為作出響應,最后呈現出來的是打開音樂、設置目的地。
針對具體的場景化需求,火山引擎提出了很多自己的思考。為了滿足車主的個性化需求,火山引擎針對每次固定不變的東西,設定冷啟動推薦和學習記憶。用戶一方面可以接受模型提出的建議,另一方面也能糾正模型,模型會記錄下來用戶的需求,在每次交互中不斷迭代,離理解用戶更近一點。
火山引擎相關人士還透露,下一代產品將會構建大模型“一對N”的關系。國內用車場景有著強烈的家庭屬性,升級到“一對N”功能后,模型就能清楚地知道每個人的身份以及彼此間的關系屬性。
Tokens流向千行百業
火山引擎服務客戶所產生的Tokens還在不斷擴大,其他行業的案例還有很多。
在智能終端領域,火山引擎已與全球Top 10手機廠商中的9家建立了深度合作關系,截至目前為止,豆包大模型已覆蓋超過5億臺終端設備。
其核心邏輯在于,以豆包大模型為統一基座,為手機廠商提供模塊化、可定制的AI能力菜單,而近期備受關注的“豆包手機助手”正是該能力在終端體驗上的實驗性產品,做出了“天花板”級示范。
![]()
合作成功的關鍵在于火山引擎提供的并非單一產品,而是靈活的“能力組合”。廠商可按需接入多模態模型、聯網搜索插件、角色化智能體及端云協同安全方案等,從而快速打造具備AI搜索、屏幕問答、跨應用操作等特性的智能助手。例如,vivo、OPPO等品牌已基于此實現了AI意圖搜索、圈選識屏、多模態交互等創新功能。
在金融行業,火山引擎提供營銷、投研、信貸等智能體建設方案,已服務中信證券、國泰海通、華泰證券等八成頭部券商,及招商銀行、民生銀行等八成系統重要性銀行。
華泰證券基于豆包大模型打造了國內證券行業第一個AI原生應用——“AI漲樂”。在豆包大模型的加持下,解決了功能堆砌的問題,AI得以深度融入選股、分析、交易等核心場景中,幫助用戶執行選股、盯盤、下單、提醒等一系列復雜的操作。
進一步,搭配豆包的播客模型,AI漲樂還可以根據用戶興趣和需求生成個性化對話的AI播客,讓用戶在通勤路上以聽的方式,就能獲得最新的市場信息。一套“組合拳”下來,AI漲樂不再是一個被“閑置”的應用,而是成為高粘性的投資理財工具。
對于合作,火山引擎的態度更加開放,一個典型例子就是客戶不僅能選擇豆包大模型,還能接入DeepSeek等開源模型。火山引擎認為,圍繞客戶的需求解決問題才是關鍵。基于此,火山引擎目前的商業模式也更多元化。
輕量化模式,就是火山引擎方提供大模型API,客戶直接調用,自己來做產品包裝研發,這種模式按Tokens量付費即可,比較容易計算。
第二種,如果有客戶想用使用火山引擎的一些標準化產品,這里面可能就涉及一些定制費用和使用授權費用。
第三種,在一些新興場景中,火山引擎更傾向于深度的戰略合作,聚焦在雙方怎么能夠相互賦能,共同打磨出標桿型產品。
火山引擎曾憑借一己之力推動大模型價格進入“厘時代”,為企業降本增效的服務理念貫穿始終。去年5月份,火山引擎平臺上的主流模型降價99%。今年,火山引擎首創按模型思考長度、分段計費的方式,為企業節約成本。
剛過去的發布會上,針對企業想跑更多新模型的心態,火山引擎又推出了“AI節省計劃”。該計劃涵蓋了豆包大模型和各類三方開源模型,凡是參與的企業,各個部門都能享受統一的價格優惠,且不同模型之間用量可以互相累計。以此計算下來,最高可節省47%的使用成本。
Tokens不止,流向千行百業,火山引擎正在以開放、靈活的姿態,成為AI與產業深度融合的關鍵推動者。
微信號|TMTweb
公眾號|光子星球
別忘了掃碼關注我們!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.