文|周鑫雨 王欣逸 鐘楚笛
編輯|周鑫雨
Token,在技術語境下,是模型處理文本時的最小單位;在商業語境下,則成了AI服務最主流的計費方式。
近期,讓Token被黃仁勛、吳泳銘等人,拔高到“經濟學”概念的導火索,是當下全球最火的開源Agent框架——俗稱為“龍蝦”的OpenClaw。
它第一次讓Agent的概念突破極客圈層,走向普羅大眾;同時,運行龍蝦龐大的Token消耗,也讓習慣使用免費ChatBot的普通用戶,第一次感知到:智能,是一種昂貴的、需要購買的資源。
2026年3月27日,中關村論壇。在主題為“OpenClaw與AI開源”的圓桌上,五位分別來自大模型、算力、Agent領域的中國AI一把手,因為開源和Token,聚在了一起。
![]()
論壇。
模型層的幾位玩家,月之暗面創始人楊植麟、智譜CEO張鵬、小米MiMo大模型負責人羅福莉,都在不久前,發布了自己的OpenClaw框架,或是將自己的模型能力,與OpenClaw做了適配;
香港大學助理教授兼博士生導師黃超,曾帶領團隊,僅用4000行代碼,就開發出了OpenClaw的平替,Nanobot;
這幾家模型公司的算力合作方,無問芯穹聯合創始人夏立雪,今年1月以來最大的感受則是:龍蝦帶來的Token消耗速度,可以媲美曾經3G剛普及的時代,手機流量的消耗速度。
OpenClaw給行業帶來巨量的Token商機,但對于這幾位AI從業者而言,這是一種“甜蜜的煩惱”,意味著更多的挑戰。
對模型層的玩家而言,有限的算力,依舊是最大的掣肘。
張鵬直言,AI技術,包括智能體框架,讓很多人的創造力和效率提升了10倍,然而,背后算力的需求提升了100倍。站在算力供給的一方,夏立雪也承認,Token需求的暴增,對算力廠商的系統效率帶來了更大的優化需求。
如何在有限的算力中,發揮算力的最智力水平,在羅福莉看來,這一問題的解決方案,恰恰是中國大模型公司的優勢,比如DeepSeek V2、V3在MoE架構上的創新。
她提到,如何實現一個Long-Context Efficient(高效長上下文)的架構,以及在推理側如何做到Long-Context Efficient,會成為全方位的競爭。
在Agent應用的層面,黃超認為,龍蝦給大家帶來的思考是:我們是否還需要一個All in one的強大智能體?在他看來,龍蝦代表的是一個輕量級的操作系統、一個工具的腳手架,但它卻能撬動生態中的所有工具。
同時,他發現,當下的Agent生態還存在各種問題。比如,Skill(技能文檔)的質量參差不齊;龍蝦依然沒有一套很好的機制,去管理用戶的上下文。
幾位形成的共識是:未來,要為Agent設計模型架構、做架構層的創新。
模型的自進化,是羅福莉在Agent框架中看到的可能。“Chat范式根本沒有發揮預訓練模型的上限。”她提到,Agent在長時間執行任務的過程中,也在激活模型的上限。
黃超總結,未來,整個AI生態,不管是軟件系統,還是數據,都需要變成Agent Native模式。
當然,還有算力——夏立雪提出,面向Agent時代,需要打造Agentic Infra、打造更智能的Token工廠,“讓Token工廠本身也能自我迭代、自我進化”。
以下是《智能涌現》對圓桌的整理,為了保證閱讀體驗,文字略經編輯:
楊植麟:日常使用OpenClaw或者類似的產品時,你們覺得最有想象力,或印象深刻的是什么?從技術的角度,你們如何看待今天OpenClaw,以及相關Agent的演進?
張鵬:我很早就開始玩OpenClaw了,當時還不叫OpenClaw,最早它叫Clawdbot。畢竟是程序員出身,玩這些東西,多少還是有一些自己的體會。
OpenClaw帶來的最大突破,或者說新鮮的地方在于,這件事不再只是程序員或者極客的專利。普通人也可以比較方便地用到頂尖模型的能力,尤其是在編程和智能體這方面。
所以我更愿意把OpenClaw稱為腳手架。它提供的是一種可能性,在模型的基礎上搭起一個既牢固、方便,又足夠靈活的框架。大家可以按照自己的意愿,去調用底層的各種模型,以及模型所帶來的一些新奇的能力。
原來自己有想法,但受限于不會寫代碼的人,今天可以通過簡單的交流,就能完成自己的想法。所以這個事情對我來說沖擊非常大吧,或者說讓我重新認識了一些事情。
夏立雪:我最開始用OpenClaw是不太適應的,因為我習慣和大模型聊天,相比之下OpenClaw的反應好慢。
但后來我意識到一個問題,它和之前的聊天機器人有一個很大的不同:OpenClaw是一個能夠幫我完成大型任務的人。所以當我開始交給它更復雜的任務時,它能做得非常好。
這件事給我的觸動很大。從最初模型按Token聊天,到現在變成一個Agent、一個龍蝦幫你完成任務,這極大地提升了AI的想象力空間。
同時它對系統能力的要求也變得很高,這也是為什么我一開始用OpenClaw會覺得有點卡的原因。
作為基礎設施層的廠商,我看到的是,OpenClaw對整個AI大型系統和生態都帶來了更多機遇和挑戰。因為以我們現在所能調動的資源,想要支撐這樣一個快速增長的時代,其實是不夠的。
舉個例子,我們公司從1月底開始,基本上每兩周Token量就翻一番,到現在基本上已經翻了十倍。上次見到這個增速,還是3G時代看手機流量的時候。現在的Token用量,就像當年我們每個月用100兆手機流量一樣。
在這種情況下,我們所有的資源都需要更好地優化、整合。不僅是在AI領域,在整個社會上,每一個鮮活的人都能把像OpenClaw這樣的AI用起來。
所以我作為基礎設施的玩家,內心是非常激動和感慨的,這里面還有很多的優化空間,值得我們去探索和嘗試。
羅福莉:OpenClaw對于Agent框架而言,是一個非常革命性和顛覆性的事件。
雖然我身邊所有在進行深度Coding的人,第一選擇還是Claude Code,但我相信只有用過OpenClaw的人,才能感受到它在Agent框架上的設計性,是領先于Claude Code的,包括最近Claude Code的更新都是向OpenClaw靠近的。
我使用OpenClaw的感受是,這個框架帶來想象力是可以隨時隨地擴展的。
OpenClaw帶來的核心價值有兩個。一是開源。開源是一個非常有利于整個社區深入參與、投入到Agent框架的前置條件。
OpenClaw、Claude Code這類Agent框架,一個很大的價值在于,國內那些與頂尖閉源模型尚有差距、但在閉源賽道上具備一定實力的模型,其能力上限能被拉到非常高的水平。
在絕大多數場景下,這些模型的任務完成度已經可以非常接近Claude最新模型的表現。
同時靠一套Harness(治理機制)系統、Cache 2 Cache(一種數據緩存機制)Skills 體系等諸多設計又可以保證下限,保證它任務的完成度和準確率。
所以從基座大模型的角度來看,OpenClaw實際上是保證了模型的下限,同時拉伸了它的上限。
此外,OpenClaw給整個社區帶來的價值在于,它更多地點燃了大家,讓人們發現:在大模型之外,Agent這一層還有非常多的想象力和發揮空間。
這也是我看到,最近社區里除了研究員之外,有更多人開始參與到這場AGI變革中來。大家借助更強的Agent框架,比如Harness、Scaffold(腳手架)等,在一定程度上替代了自己的工作,并且也釋放出更多時間,去做更有想象力的事情。
黃超:可以從兩個層面來理解OpenClaw的爆火。
首先是交互模式,我們做Agent也有一兩年了,但之前像Cursor、Claude Code這些工具,給人的感覺更多是工具感。而OpenClaw首次使用以IM(即時通訊)軟件嵌入的方式,讓人感覺更有活人感,更接近于自己想象中的個人賈維斯的概念。
其次是架構和生態層面的啟發。
一方面,它是簡單高效的Agent Loop架構,這再次驗證了Agent Loop架構的價值。
另一方面,它也讓我們重新思考一個問題:我們需要的到底是一個all in one的超級智能體,還是一個輕量級的操作系統、一個像腳手架一樣的小管家?
OpenClaw通過這樣一個龍蝦的超系統或生態,可以讓整個社區能以更玩起來的心態,撬動整個生態里所有的工具。
隨著Skills、Harness等能力的出現,越來越多的人可以去設計面向這類系統的應用,去賦能各行各業。它天然就與開源生態結合得非常緊密。
這兩點,是它帶給我們最大的啟發。
楊植麟:順著OpenClaw的討論,想問一下張鵬,最近智譜也發布了新的GLM 5-Turbo模型,對Agent能力做了增強。
能不能給大家介紹一下,這個新模型和其他模型的不同之處?以及模型漲價了,這個反映了什么樣的市場的信號?
張鵬:前兩天我們確實緊急更新了一波,這其實本來是我們整個發展路標中的一個階段,只是提前放了出來。最主要的目的,就是實現從對話到干活的跨越。
剛才各位也講到了我非常贊同的一點,OpenClaw 讓大家真切地感受到,大模型不再只是聊天,而是真的能幫我們干活。
但干活背后隱含的能力要求其實非常高:它需要自己去長程規劃任務、不斷重試、壓縮上下文、debug,還可能要處理多模態信息等等。
這些對模型能力的要求,跟傳統面向對話的通用模型是很不一樣的。GLM 5-Turbo正是針對這些方面做了專門的加強,尤其是大家提到的——讓它持續干活,甚至72小時不停地自我循環,這里面我們做了很多的工作。
另外,關于Token消耗量的問題。讓一個聰明的模型去完成復雜任務,Token的消耗量是非常巨大的,一般人可能體會不到,只會看到賬單上的錢在不停往下掉。
所以在這方面我們也做了優化,在面臨復雜任務時,模型能以更高的Token效率來完成。
本質上,模型的架構依然是一個多任務協同的通用模型架構,只是在能力上做了一些偏向性的加強。
至于提價的問題,也可以很順暢地跟大家解釋。我們現在不再是簡單地問一個問題、模型回答,它背后的思考鏈路非常長。很多任務要通過寫代碼的方式與底層基礎設施打交道,還要debug、隨時修正錯誤,這個消耗量非常大。
完成一個任務所需的Token量,可能是原來回答簡單問題的十倍甚至百倍,所以價格和成本確實有所提高。
模型變更大了,推理成本也相應提高了,我們也希望把它回歸到正常的商業價值上。長期靠低價競爭,對整個行業發展并不利,這也是我們的一個考量。
這樣也能讓我們在商業化路徑上形成良性閉環,持續優化模型能力,不斷給大家提供更好的模型和Token服務。
楊植麟:開源模型,以及推理算力,現在形成一個生態。各種各樣的開源模型可以在各種各樣的推理算力上,去給用戶提供更多的價值。
隨著Token消耗量的爆炸,現在也從訓練時代變成了推理時代。想請教一下立雪,從Infra的層面,推理時代對于無問來說意味著什么?
夏立雪:我們是一個誕生在AI時代的基礎設施的廠商,然后我們現在也為Kimi,智譜,包括也在跟MIMO去做合作,讓大家能夠把我們的Token工廠更高效地給用起來。
但是我們也在跟很多高校、科研院所也在合作,所以我們其實一直都在思考一件事情,就是AGI時代需要的基礎設施它會是什么樣子的?
然后我們怎么能夠一步步地去在這個過程中去實現它和推演它?我們現在也是做好了充分的準備,也看到了短期、中期和長期不同階段我們需要解決的問題。
眼下要面對的,就是剛才大家聊到的——由OpenClaw這類Agent框架帶起來的Token量暴增。這對我們的系統效率提出了更高的優化需求,包括價格的調整,其實也是在這個需求下的一種解決方式。
而我們一直以來,都是從軟硬件打通的路徑去做布局和解決的。比如,我們接入了幾乎所有能看到的各類計算芯片,把國內幾十種芯片、幾十個不同的算力集群統一連接起來,去應對AI系統中算力資源緊缺的問題。
因為在資源不足的時候,最好的辦法是:第一,把能用的資源都用起來;第二,讓每一份算力都用在刀刃上,發揮出最大的轉化效率。
當前我們要解決的核心問題就是:如何進一步打造更高效的Token工廠。這方面我們做了很多優化,包括讓模型與硬件的顯存等各種技術做最優適配,也在探索最新的模型結構與硬件架構之間,是否能發生更深度的化學反應。
但解決當下的效率問題,其實只是打造了一個標準化的Token工廠。面向Agent時代,我們認為這還不夠。就像剛才提到的,Agent更像是一個人,我們可以直接交給它一個任務。
我其實很堅定地認為,當前很多云計算時代的基礎設施,本質上是為服務一個程序、為服務人類工程師而設計的,而不是為AI設計的。
我們基礎設施上的接口是為人類工程師做的,在這之上要再包一層,再去接入Agent,用人的操作能力限制了Agent發揮空間。
比如,Agent能夠做到秒到毫秒級別的思考和發起任務,這件事情在底層的K8S(Sparse)等能力上,還沒有做好準備。
人類發起的任務是分鐘級別的,這意味著這些功能需要進一步的能力,我們將它稱作Agentic的Infra,即打造一個更智慧化的工廠,這是我們無問芯穹現在正在做的事情。
從更長遠的未來來看,真正的AGI時代到來的時候,我們認為連基礎設施都應該是一個智能體。
我們所打造的這套工廠本身也應該是能夠自我進化、自我迭代的,它能夠形成一個自主的組織,有一個Agent CEO,可能由一個Claw管理整個基礎設施,并根據AI客戶的需求,自己去提需求來迭代自己的基礎設施。
這樣AI和AI之間才能更好的形成耦合,我們也在做一些讓Agent-to-Agent之間更好地通信的能力,以及做Cache-to-Cache的復制能力。
基礎設施和發展不應該是隔離的狀態,而應該產生非常豐富的化學反應,這樣才能真正做到所謂的軟硬協同,即算法和基礎設施的協同,這也是無問芯穹一直想實現的使命。
楊植麟:接下來想問問福莉,最近小米通過發布新的模型以及開源背后技術,對社區也做出了很大貢獻。你認為小米在做大模型方面有什么獨特的優勢?
羅福莉:我們先拋開小米在做大模型方面有什么獨特優勢的話題,我更想談一下中國的做大模型的團隊在做大模型上的優勢,這個話題更具備廣泛的價值。
兩年前,中國的基座大模型團隊已經取得了非常好的突破,在有限的算力做了一些看似是為了效率妥協的模型結構的創新,如DeepSeek V2、V3系列的MoE等。
在算力一定的情況下發揮出最高的智能水平,這是DeepSeek給國內所有基座大模型團隊的勇氣、信心。
在今天,我們自己的國產芯片,尤其是推理芯片以及訓練芯片,已經不再受限制。
但是我們也能看到,“限制”催生了我們對更高的訓練效率、更低的推理效率的模型結構進行全新探索。
比如最近的Hybrid(混合注意力機制)、Sparse(稀疏注意力機制)和Linear Attention(線性注意力)的結構,包括DSA、NSA、Kimi的KDA,以及小米也有面向下一代結構的HySparse結構,這是區別于MIMO-V2這一代結構,我們面向于Agent時代去思考的如何做更好的模型結構的創新。
我為什么覺得結構的創新如此重要,是因為OpenClaw這個話題。
大家如果真實地用OpenClaw,會發現它越用越好用、越用越聰明。這一前提是推理的Context。
Long Context(長上下文)是我們談論了很久話題。我們期待模型在Long Context下表現非常好、性能非常強勁且推理成本非常低。很多模型是做不到1兆或10兆的Context,因為它的成本太貴了、速度太慢了。
如果模型能做到在1兆或10兆的Context的情況下,推理的成本夠低、速度夠快,才會有真正的高生產力價值的任務交給這個模型,激發在Long Context下完成更高復雜度的任務,在10兆甚至100兆Context的情況下,實現模型的自迭代。
模型的自迭代,是指模型可以在復雜的環境里依靠于超強的Context完成對自我進化,可能是對Agent框架本身的,也有可能是對模型參數本身的,因為Long Context本身就是參數的進化。
怎么實現Long Context Efficient(高效長上下文)架構,以及怎么在推理側做到Long Context Efficient,這是全方位的競爭。在預訓練做Long Context Efficient的架構,這是我們一年前就去探索的問題。
而當今如何做到Long Context,在長程距離任務上達到非常高上限的效果,是后訓練需要再去迭代創新的一個范式。
后訓練正在經歷的事是,怎么去構造更有效的學習算法,怎么去采集到真實的在1兆、10兆及100兆上下文里都具有長距依賴的文本,以及結合復雜的環境產生的trajectory。
由于大模型本身在飛速的進步,由于我們有Agent框架的加持,在過去一段時間里,我們能看到推理需求,已經實現了近10倍的增長,今年整個Token的增長有可能到100倍。
這讓競爭也進入了另一個維度:算力,或者說是推理芯片,甚至是能源。
楊植麟:非常有Insight的分享。下面想問一下黃超,你開發了一些非常有影響力的Agent項目,包括NanoBOT,也有很多社區的粉絲。從Agent的Harness層面,接下來有什么比較重要的技術方向需要大家去關注的。
黃超:把Agent的技術抽象,關鍵是這幾個點:Planning、Memory和Tool use。
Planning現在還是面向于一些長程的任務或者非常復雜的算法,比如500步甚至更長步數的。未來,Planning可能需要把已有的比如復雜任務的知識,固化到模型里去做。
Skill和Harness(控制、治理機制)緩解了Planning里面帶來的錯誤,一些比較高質量的Skill,本質上也是在模型上完成比較難的一些task。
Memory一直存在著信息壓縮不準確、搜不準等問題,在長程任務和一些復雜場景,Memory就會暴增,對 Memory 帶來壓力。
各類的龍蝦都采用的是最簡單的類似Markdown格式的Memory。未來Memory可能會走向一些分層的設計,包括如何讓Memory做得更通用。
現在的Memory機制很難做到很通用,比如說Coding場景、Deep Research、多媒體領域之間,整個數據模態的差別會很大。如何這些Memory進行檢索索引,讓它更加高效的,我覺得這是在做一個Trade off。
另外,龍蝦讓大家創建Agent的門檻大幅降低之后,我們可以預見,未來可能不止一個龍蝦,可能每個人會擁有一群龍蝦。一群龍蝦相比于一個龍蝦,其上下文的暴增會非常大,給Memory也帶來壓力。
目前還沒有很好的機制來管理一群龍蝦,在復雜的Coding和科研發現等場景中,會帶來一定的上下文壓力。無論是模型本身,還是整體的Agent架構,壓力都很大。
Tool use的核心仍然是Skill。此前MCP的質量無法保障以及安全性等問題,在Skill中依然存在。雖然現在看起來Skill 數量很多,但高質量的Skill相對較少,低質量Skill會直接影響Agent任務的完成度。
另外,Skill還存在惡意注入等安全問題,使得整體系統的可靠性受到影響。在Tool use層面,可能需要依賴社區來共同建設和優化Skill,在執行過程中動態進化出新Skill的能力。
楊植麟:剛剛羅福莉和黃超通過不同的視角討論一個問題,隨著任務復雜度的增加,上下文會暴漲,從模型層面可以去提升原生上下文長度;
從Agent Harness層面,剛剛說的Planning、Memory,包括Multi-Agent的Harness,實現在一個特定的模型能力下支持更復雜的任務,這兩個方向接下來也會產生更多的化學反應。
最后是一個開放式的展望,想請各位用一個詞來描述一下,接下來12個月大模型發展的趨勢以及我們的希望。
黃超:生態。
現在龍蝦讓大家這么活躍,未來Agent真的是要去從真正的個人助手轉換為打工人。現在可能大家很多時候玩龍蝦是新鮮感,未來可能真正得讓龍蝦們沉淀下來,成為大家的搬磚的工具,或者成為coworker的狀態。
這需要整個生態的努力,開源也很重要。相關的技術探索和模型的技術都開源出去之后,需要整個生態一起來共建。無論是對于模型的迭代、Skills平臺的迭代以及各種工具,都需要面向龍蝦創造更好的生態。
我自己感覺比較明顯的是未來的很多軟件都不一定會是面向人類的。整個生態不管是GUI(圖形界面)、MCP(模型上下文協議)、CLI(命令行界面),還是軟件系統、數據和技術,都需要把它們變成Agent Native的模式,讓Agent發展更加豐富。
羅福莉:把問題縮小到一年,非常有意義。按照我對AGI(通用人工智能)的定義,5年后已經實現了。
如果要用一個詞來描述接下來一年,AGI歷程里最關鍵的是:自進化。
雖然這個詞有點玄幻,過去一年大家也多次提到,但我最近才對這個詞有了更深的體會,或者說對自進化具體怎么做,有了更務實的操作方案,原因在于借助于了很強大的模型。
之前Chat的范式,根本沒有發揮出預訓練模型的上限。這個上限現在被 Agent框架激活了。當它執行更長時間的任務的時候,我們發現模型可以自己去學習和進化。
很簡單一個嘗試,當你在現有的框架里,給模型疊加一個可以verify的條件限制,再設置一個Loop(重復指令),然后讓模型持續迭代、優化目標。
我們發現,模型會持續拿出更好的方案。這樣的一種自進化,現在國內的模型基本能跑一兩天,當然跟任務的難度有關。
在科學研究上,比如探索一個更好的模型結構——因為模型結構有評估標準,比如更低的PPL(困惑度)——在這種很確定的任務上,我們發現,模型已經能自主優化、執行兩三天了。
從我的角度來看,自進化是唯一可以創造新東西的地方。它不是替代現有的人的生產力,而是像頂尖的科學家一樣,去探索出世界上沒有的東西。
一年前,我覺得自進化的時間歷程會拉到3-5年。但近期,時間歷程應該縮小到1-2年,我們就可以讓大模型,疊加一個非常強的自進化Agent框架,實現對科學研究成指數級的加速。
我們組內做大模型研究的同學,workflow是非常不確定的,是高度創造力的。我們發現,借助Claude Code ,加非常頂尖的模型,基本上已經能夠把我們的研究效率加速近10倍。
所以我很期待,這一種范式輻射到更廣的學科和領域。
夏立雪:我的關鍵詞叫“可持續Token”。現在AI的發展還在長期持續的過程中,我們也希望它有長久的生命力。
作為基礎設施,我們看到的一個很大的問題,就是資源終究是有限的。就像當年的可持續發展概念一樣,我們現在作為Token 工廠,能否給大家提供持續、穩定,能夠大規模用起來的Token,讓頂尖的模型能夠繼續為更多的下游服務,是一個很重要的問題。 我們現在需要把視角放寬到整個生態:最早的能源,轉化到算力,再轉化到Token,最終再轉換成人的GDP——這樣一條鏈路,要進行持續的經濟化迭代。
我們不止在把國內的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能夠打通和整合。我想把中國特色的“Token經濟學”做起來。
在之前的時代,我們講“Made in China”。我們能夠把中國低價的制造能力,變成好的商品,輸出到全球。
我們現在想做的有點像“AI Made in China”。我們能夠把中國能源上的優勢,直接通過Token工廠,可持續轉化成優質的Token,輸出到全球,將來成為世界的Token工廠。
這是我今年想看到的中國給世界人工智能帶來的價值。
張鵬:大家都在仰望星空,我就落地一點,未來12個月面臨的最大的問題,可能就是算力。
所有的技術,包括智能體框架,讓很多人的創造力與效率提升了10倍。但前提條件是,大家能夠用得起來,不能因為算力不夠,導致一個問題讓Agent思考半天,也不給我答案。
也是算力的原因,甚至我們研究的進展其實都受阻了。前兩年,張亞勤院士說了一句話:談卡傷感情,沒卡沒感情。
今天又到了這個地步,但情況又不一樣了。我們轉向了推理的階段,因為需求真的在十倍、百倍的爆發,還有很大的需求沒有被滿足,怎么辦?我們大家一起來想想辦法。
歡迎交流!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.