OpenClaw 的爆火,從來不止是一個 Agent 產品的出圈,更是 AI 產業新舊時代的分水嶺。
在 2026 中關村論壇 AI 開源圓桌現場,無問芯穹夏立雪直指行業核心拐點:Agent 爆發讓 Token 需求累計暴漲十倍,AI 已正式告別訓練時代,邁入推理新周期。
他提出的「可持續 Token」命題,不僅定義了行業長跑的核心規則,更給出了中國 AI 角逐全球的全新路徑 —— 打造世界級 Token 工廠,輸出「AI Made in China」。
以下是圓桌實錄。
![]()
圓桌時間:2026年3月27日
圓桌嘉賓:
- 楊植麟 月之暗面創始人
- 張鵬 智譜華章CEO
- 夏立雪 無問芯穹聯合創始人兼CEO
- 羅福莉 小米MiMo大模型負責人
- 黃超 香港大學助理教授&博士生導師、Nanobot團隊負責人
主持人:在本次論壇上,我們還將繼續定位北京市人工智能產業發展立足點,搭建頂尖思想交流碰撞的平臺,所以下面將共同開啟的是兩場圓桌對話,我們也非常榮幸的邀請到了行業領軍者以及青年先鋒和我們共聚一堂,同臺論道。第一場論壇聚焦當下的熱點話題,剛剛很多嘉賓在舞臺上也都提到了,如今我們被小龍蝦刷屏,那您有沒有養龍蝦呢?所以我們也看到OpenClaw正在掀起新一輪關于人工智能行業應用的深度思考,
我們第一場圓桌論壇就將聚焦于此,我們也非常榮幸的邀請到5位頂流嘉賓,他們是來自月之暗面的楊植麟先生,他是大模型賽道最具全球影響力的創業者之一,有請您來到舞臺上,同時我們還要有請來自智譜AI的張鵬先生,他帶領團隊成為全球大模型第一股;還有來自無問芯穹的夏立雪先生,他讓Token成為普惠千行百業的水、電、煤;還要有請來自小米的羅福莉女士,作為小米MiMo大模型的掌舵人,她實現了端云協同,把AI技術融入日常使用;當然還要歡迎來自香港大學的黃超先生,他用3400行代碼實現了OpenClaw核心能力。歡迎各位和我們同臺論道。現在我們就把時間交給他們,共同探討OpenClaw與AI開源的未來走向。
楊植麟:很榮幸今天能邀請到各位重磅嘉賓,也覆蓋了不同的層面,從模型層到底層的算力層,再到上面的Agent層。很高興今天能跟大家一起來探討。最主要的關鍵詞是開源和Agent。那我們先從第一個問題開始,這個問題是給所有人的:我們現在最流行的OpenClaw,大家自己日常使用OpenClaw或類似的產品,有什么覺得最有想象力或印象深刻的地方?從技術的角度來看,如何看待今天OpenClaw和相關Agent的演進?從張鵬這邊開始。
張鵬:感謝植麟邀請,也感謝主辦方給這個機會跟大家交流。確實很早我就開始自己玩OpenClaw,當時還不叫OpenClaw,最早叫Clawbot,折騰這些事情自己動手來搞,畢竟也是程序員出身,玩這些東西還是有一些自己的體驗。我覺得這個事情給大家帶來的最大的突破點或者說新鮮的點,就在于可能這件事情不再是程序員或者極客們的專利,普通人也可以比較方便地使用頂尖模型的能力,尤其是在編程和智能體方面的能力。所以我到現在為止,跟大家在交流的過程當中,更愿意把OpenClaw稱作一個“腳手架”。它提供的是一種可能性,在模型的基礎之上搭起一個很牢固、很方便、但又很靈活的腳手架。大家可以按照自己的意愿去使用很多底層模型提供的新奇東西。原來自己的一些想法受限于不會寫代碼,或者不會其他技能,今天終于可以通過很簡單的交流就可以完成。所以這個事情對我來說是一個非常大的沖擊,或者讓我重新認識了這樣的一件事情。
夏立雪:其實我最開始用OpenClaw的時候是不太適應的,因為我習慣于跟大模型聊天的這種交流方式,然后發現OpenClaw感覺好像反應好慢這種感覺。但是后來我意識到一個問題,就是它和之前的聊天機器人有一個很大的不一樣,它其實應該是一個能夠幫我完成一個大型任務的人。所以我后面開始給它提交一些更復雜的任務的時候,我就發現其實它能夠做得很好。這件事情對我來說有一個很大的感觸,就是模型從最開始按照Token去聊天,到現在能夠變成一個Agent,變成一個龍蝦,能夠幫你去完成任務,它對于我們整個AI的想象力空間已經做了一個很大的提升。但同時,它對于整個系統的能力要求也變得很大,這也是為什么我一開始用OpenClaw會覺得有點卡的原因。
那我作為這樣基礎設施層的廠商,我看到的Claw對于整個AI后邊的大型系統和生態都帶來了更多的機遇和挑戰。因為我們現在所有能夠用到的資源,想要支撐起這樣一個快速增長的時代是不夠的。就拿我們公司來說,從1月底開始,基本每兩周我們的Token量就翻一番,到現在基本上翻了十倍。上次見到這個速度,還是當年3G手機流量的那種感覺。所以我現在有種感覺,現在的Token用量就跟當年每個月100兆手機流量那個時代。這種情況下,我們所有的資源是需要進行更好的優化、更好的整合,讓每一個人,不僅僅是AI領域的人,而是整個社會上每一個鮮活的人,都能夠把OpenClaw,把這樣的AI能力給用起來。所以我作為基礎設施的玩家,對這個時代是非常激動和感觸的,而且認為這里邊有很多的優化空間,仍然是我們應該去探索、去嘗試的。
羅福莉:我自己是把OpenClaw當做Agent框架的一個非常革命性和顛覆性的事件來看待的。雖然我知道我身邊所有在進行深度Coding的人,可能他的第一選擇還是ClaudeCode,但是我相信只有用過OpenClaw的人,會獨特地感受到這個框架其實有很多在Agent框架上的設計是領先于ClaudeCode的,包括最近ClaudeCode有很多最新的更新,其實都是在向OpenClaw靠近。我自己去使用OpenClaw的話,感覺這個框架給我帶來更多是想象力的隨時隨地擴展。ClaudeCode可能最開始我只能在我的桌面上延展我的創意,但是在OpenClaw我可以隨時隨地延展我的創意。
后面我發現,其實OpenClaw帶來的主要核心價值在于兩個:第一,它是開源的,這是整個社區去深入參與、去重視、改進、投入到Agent框架這件事的一個重要前置條件。像OpenClaw、ClaudeCode這樣的Agent框架,我認為它很大的價值在于把國內可能沒有非常接近閉源模型、但水平還是在次閉源模型的賽道上的模型上限給拉得非常高。在絕大部分場景,我們能發現它的任務完成度已經非常接近Claude的最新模型,同時它又把下限保證得非常好,因為它可以靠一套Harness系統,或者說 Skills體系等很多設計,來保證任務的完成度和準確率。
所以我覺得,OpenClaw從一個基座大模型的角度來說,它保證了基座大模型的下限,然后拉伸了它的上限。此外,我認為OpenClaw給整個社區帶來的價值,是它更多地點燃了大家的發現:原來在大模型外這一層,更重要的Agent這一層,有非常多的想象力和空間可以做。這是我看到最近社區有更多除了研究員以外的人參與到AGI的變革當中,也有更多人借助到更強的AGI框架、Harness或Scaffold等,去一定程度上替代自己的工作,釋放自己的時間,去做更有想象力的事情。
黃超:我感覺首先從交互模式上來講,OpenClaw這次會爆火的原因,第一個是給了大家一種更有“活人感”的感覺。因為我們做Agent也有一兩年了,但之前包括Cursor、ClaudeCode這些Agent,給人感覺更強的是一種工具感。我覺得OpenClaw第一次以IM軟件嵌入的方式,讓大家更有一種活人感,更接近自己想象中的個人賈維斯這樣的概念,所以我覺得這可能是交互模式上的突破。
另外一個,它帶給整個大家的啟發,是它的AgentLoop這種非常簡單但高效的框架再次被證明。還有就是它讓我們重新思考:我們是否需要一個All In One、非常強大的智能體幫我們做很多事情,還是需要一個比較好的、類似輕量級操作系統或腳手架一樣的小管家。它帶來的是可以通過一個小的OpenClaw,或者這樣一個龍蝦的操作系統生態,讓整個社區大家更有玩起來的心態,去撬動整個生態里所有的工具,包括隨著Skills或Harness,越來越多的人可以去設計面向OpenClaw這樣的系統里的應用,去賦能各行各業。我覺得這天然就和整個開源生態結合得非常緊密,所以這兩點是我覺得是帶給我們最大的啟發。
楊植麟:順著剛剛一直在討論的OpenClaw,想問一下張鵬,看到最近智譜發布了新的GLM-5-Turbo模型,我理解它對Agent能力做了很大的增強。能不能給大家介紹一下這個新模型和其他模型的不同之處?另外我們也觀察到有一個提價的策略,這反映了什么樣的市場信號?
張鵬:這是個很好的問題。前兩天我們確實緊急更新了一波,當然這是在我們整個發展路標當中其中一個階段,我們提前把它放出來。這個事情最主要的目的,還是要主打從原來的簡單對話到“干活”。剛才各位講的非常贊同,OpenClaw真的讓大家覺得大模型不再是簡單地聊天,真的能幫我干活。但這個“干活”背后隱含的能力需求是非常高的——它需要自己去長程地做任務規劃,不斷地重試,不斷地壓縮自己的上下文,Debug等等,還有可能涉及多模態信息的處理。所以這對模型本身的能力的要求,跟傳統的面向對話的機器人的通用泛用模型是有一些不一樣的。GLM-5-Turbo在這方面做了一些專門的加強。
尤其是你剛才提到的,比如讓它干活、長程的72小時,如何能夠不停地自己去Loop,這里邊做了很多工作。另外大家也提到關于Token消耗量的問題。你讓聰明的模型干這種復雜的任務,Token的消耗量是非常巨大的,一般人可能體會不出來,但會看到自己的賬單上的錢在不停地往下掉。所以在這方面我們也做了一些優化,在面臨復雜任務的時候,它可能會用更高效的推理效率去完成這些事情。所以主要是在這幾個方面做了一些優化,但本質上的模型架構還是一種多任務協同的通用模型架構,只是在能力上有一些偏向性的加強。
提價這個事情其實也很順暢地能跟大家解釋。剛才也提到了,我們現在不再是簡單地問一個問題它回答,背后有思考的鏈路是很長的,包括很多任務通過寫代碼的方式跟底層基礎設施打交道,還要Debug,隨時改正自己的錯誤。這個消耗量非常非常大,完成一個任務可能需要的Token量是原來回答一個簡單問題的十倍甚至百倍。成本有一定提高,模型也變得更大,推理成本也相應提高了,所以我們把它回歸到一個正常的商業價值上來,因為長期靠低價競爭也不利于整個行業的發展,這是我們的一個考量,也讓我們能夠持續地在商業化路徑上有一個良性的閉環,不斷地優化模型能力,持續給大家提供更好的模型和相應的Token服務。
楊植麟:非常好的分享。因為現在有開源模型,推理算力也開始形成一個生態,各種各樣的開源模型可以在各種各樣的推理算力上給用戶提供更多價值。隨著Token量的爆發,現在可能逐漸從訓練時代進入了推理時代。想請教一下立雪,從Infra的層面,推理時代對于無問芯穹來說意味著什么?
夏立雪:感謝植麟。確實我們是一個誕生在AI時代的基礎設施廠商,現在也為Kimi、為智譜,包括也在跟MiMo合作,讓大家能夠把我們這樣一個Token工廠更高效地用起來。當然我們也在跟很多高校、科研院所合作,所以我們一直在思考:AGI時代需要的基礎設施會是什么樣子?我們怎么一步步地去實現和推演它?
我們現在做好了充分準備,也看到了短期、中期和長期不同階段需要解決的問題。當前腳下的一個問題,就是剛剛大家聊到的,OpenClaw帶起來的整個Token量暴增,對我們的系統效率帶來了更大的優化需求,包括價格的增長也是大家在這種需求下的一種解決方式。我們一直以來都是從軟硬件打通的方式去做布局和解決的。我們接入了幾乎所有我們能看到的幾乎所有種類的計算芯片,把國內十幾種芯片和幾十個不同的算力集群都統一連接起來,這樣我們能夠解決AI系統中算力資源緊缺的問題。因為當資源不足的時候,最好的辦法就是第一把能用的資源都用起來,第二讓每一個算力都用在刀刃上,讓每一個資源都發揮出最大的轉化效率。
在這個時代,當前腳下我們要解決的就是怎么進一步打造一個更高效的Token工廠。這里我們做了很多優化,包括讓模型和硬件上的各種顯存、各種基礎進行最優適配,也在看會不會在最新的模型結構和硬件結構下進行更深度的化學反應。
但解決腳下的效率問題,我們只是打造了一個標準化的Token工廠。面向Agent時代,我們認為這還是不夠的。就像剛剛說的,Agent更像是一個人,我們可以交給它一個任務。我其實很堅定地認為,當前很多的云計算時代的基礎設施是為服務一個程序、服務一個人類工程師所設計的,而不是為AI設計的。有點像我們做了一個基礎設施,上面有一個接口是為人類工程師做的,然后再在上面包一層去接入Agent。這種方式是用人的操作能力限制了Agent的發揮空間。
我舉一個例子,比如Agent能夠做到秒到毫秒級別去思考和發起任務,而這件事情在我們之前的底層K8s等能力上其實沒有做好準備,因為人類發起一個任務大概是分鐘級別的。這樣的功能需要進一步能力,我們稱之為Agentic Infra,就是我們需要打造一個更智慧化的Token工廠,這是無問芯穹現在正在做的事情。
從更長遠的未來,真正AGI時代到來的時候,我們認為連基礎設施都應該是一個智能體。我們自己所打造的這套工廠本身也應該是一個能夠自我進化、自我迭代的,它能夠形成一個自主的組織。相當于它有一個CEO,這個CEO是一個Agent,它可能是一個Claw,在管理整個基礎設施,根據它的AI客戶的需求自己去提需求、迭代自己的基礎設施,這樣AI和AI之間才能更好地形成耦合。所以我們也在做一些嘗試,比如讓Agent和Agent之間更好地通信,做Cache-to-Cache這樣的能力。
所以我們一直在思考,基礎設施和AI的發展不應該是一個隔離的狀態,接受一個需求我就去制作,而是應該產生非常豐富的化學反應。這件事情才是我認為真正的軟硬協同,做到算法和基礎設施的協同,這也是無問芯穹一直想實現的使命。
楊植麟:接下來想問問福莉,小米最近通過發布新的模型,包括開源背后的技術,我覺得對社區做出了很大的貢獻。想問一下小米在做大模型方面,你覺得會有什么獨特的優勢?
羅福莉:我們先拋開小米在做大模型方面有什么獨特優勢這個話題,我更想談一下中國的做大模型的團隊在做大模型上的優勢,我覺得這個話題更具備更廣泛的價值。大概在兩年前,我看到中國的基座大模型團隊已經開始了一個非常好的突破:我們在怎么在有限的算力,尤其是在一些NVLink互聯帶寬受限的算力的情況下,突破這些低端算力的限制,去做一些看似是為了效率妥協的模型結構創新,像DeepSeek系列V2、V3的細粒度MoE和MLA等等。但我們后面能看到,由這樣一些創新引發的是一個變革:我們怎么在算力一定的情況下,發揮一定算力的最高智能水平。我覺得這是由DeepSeek帶給所有國內基座大模型團隊的一個勇氣、一個信心。
雖然在今天,我們自己的國產芯片,尤其是推理芯片以及訓練芯片,已經不再受這個限制,但我們能看到在這樣的限制情況下,催生了我們對于更高的訓練效率、更低的推理效率的模型結構的全新探索。就像最近的Hybrid Sparse或Linear Attention的結構,DSA、NSA,Kimi也有KSA,小米也有新的面向下一代結構的Hybrid Sparse結構。這是區別于MIMO V2這一代結構,我們面向Agent時代去思考的、如何在Agent時代做更好的模型結構創新。
我為什么覺得結構創新如此重要?因為我們剛剛探討到OpenClaw這個話題,OpenClaw大家如果真實地去用,會發現你越用越好用,越用越聰明。那么它的一個前提是你的推理Context。Long-Context是我們談論了很久的一個話題,但其實現在真正能有一個模型在Long-Context的情況下表現非常好、性能強勁、推理成本非常低,很多模型不是做不到一兆或十兆的Context,而是因為它去推一兆到十兆的成本太貴了、速度太慢了。怎么能在一兆或十兆的Context下推理成本夠低、速度夠快,這樣才會有真正高生產力價值的任務交給這個模型,從而去激發只有在Long-Context情況下才能完成的高復雜度任務。可能我們才能在十兆甚至一百兆Context的情況下實現模型的自迭代。
所謂模型的自迭代,就是它可以在一個復雜環境中,依靠超長Context完成對自我的進化,這個進化有可能是對Agent框架本身的,也有可能是對模型參數本身的。因為我們認為Long-Context本身其實就是對參數的一種進化。所以怎么實現一個Efficient Long Context的架構,以及怎么在推理側做到Efficient Long Context,它是一個全方位的競爭。
除了我剛剛提到的在預訓練階段做好Efficient Long Context的架構——這個可能是我們一年前就在探索的問題——而當今怎么做到Long-Context在真實的長程任務上的穩定性和非常高的上限效果,就是我們現在在后訓練階段去迭代的創新范式。我們在想怎么去構造更有效的學習算法,怎么采集到真實的、在一兆、十兆、一百兆上下文里邊都具有長距依賴的文本,結合復雜環境產生的Trajectory。這是我們現在在后訓練階段正在經歷的事情。
但我能看到更長期的事情是,由于大模型本身在飛速進步,由于我們有Agent框架更好的加持,就像剛剛立雪說的,推理需求在過去一段時間內已經近十倍的增長,那么今年整個Token的增長會不會到一百倍?這里邊我們又到了另外一個維度的競爭,這個競爭就是算力,或者說是推理芯片,甚至下到能源。所以我認為,如果我們去思考這個問題,我可能會從大家身上學到更多。
楊植麟:非常有深度的分享,接下來想問問黃超,你研發了不少有影響力的智能體項目,比如Nanobot?,在社區也擁有很多粉絲,想問問從智能體的Harness及應用層面來看,接下來有哪些技術方向是你認為比較重要、值得大家關注的?
黃超:謝謝植麟。如果我們把智能體的核心技術抽象出來,主要有規劃、記憶和Tool Use這幾個模塊,我就從這幾個方面聊聊我的看法。首先是規劃層面,當下的問題在于,面對一些長程任務或非常復雜的上下文,比如500步甚至更長步數的任務,很多模型的規劃能力表現不佳,本質上是因為模型不具備這類復雜任務所需的隱性知識,尤其是在一些垂直領域。所以未來,如何把各類復雜任務的知識固化到模型中,提升模型的規劃能力,會是一個重要的研究方向。
當然,Skills和Harness在一定程度上也緩解了規劃環節的錯誤問題,因為它們能為模型提供高質量的技能模板,本質上是引導模型完成一些高難度任務,這是針對規劃層面的思考。
然后是記憶層面,記憶模塊一直存在一些痛點,比如信息壓縮不準確、檢索不精準等,而當模型處理長程任務、復雜場景時,對記憶的需求會急劇增加,這也給記憶模塊帶來了巨大壓力。目前各類的龍蝦們,基本都是采用Markdown這類類文件系統的記憶方式,通過文件共享等形式實現記憶交互。我認為未來記憶模塊會走向分層設計,同時也需要讓記憶機制變得更通用。
說實話,當下的記憶機制很難實現通用化,比如編碼、深度研究、多媒體等不同領域,數據模態的差異很大,如何為這些不同模態的內容打造高效的記憶檢索引擎,其實一直是一個權衡取舍的過程,這也是記憶模塊長期需要解決的問題。另外,OpenClaw大幅降低了智能體的創建門檻,未來每個人可能都不會只擁有一個智能體,比如Kimi也推出了Agent Swarms多智能體集群機制,未來每個人或許會擁有一群龍蝦。
一群龍蝦會帶來上下文的爆發式增長,這對模型和智能體架構都是巨大的壓力,尤其是在復雜編碼、科研探索等場景中,目前行業還沒有一套成熟的機制能管理一群龍蝦帶來的海量上下文,我感覺特別是對于復雜的Coding科研發現這種,不管是模型還是Agent的一個架構,其實都是壓力挺大的。
最后是Tool Use層面,核心就是Skills體系。其實早期的MCP所存在的問題,現在的Skills體系依然存在,比如MCP當時的能力質量無保障、存在安全問題,而現在的Skills體系,雖然看似有很多技能Skill,但高質量的Skill其實很少,低質量的Skill會嚴重影響智能體的任務完成度。另外,Skills體系還存在惡意注入的問題,所以在Tool Use層面,需要整個社區共同努力,去完善Skills體系,甚至探索如何讓技能模板在執行過程中進化出一些新的Skill,所以我覺得這可能是不管從Planning Memory還有Skill里面,我們覺得當下Agent可能存在的一些痛點和未來可能會潛在的一些方向。
楊植麟:可以看到剛剛兩位嘉賓從不同的視角討論了一個問題,就是隨著任務復雜度的增加,上下文會暴漲。那可能從模型層面可以提升原生的上下文長度,從Agent Harness層面,像Planning、Memory,包括Multi-Agent Harness,實際上也能讓在特定的模型能力下支持更復雜的任務。我覺得這兩個方向接下來也會有更多的化學反應,能夠提升完成任務的難度。最后我們來一個開放式的展望,想請各位用一個詞來描述一下接下來12個月大模型發展的趨勢,以及你的期望。那這次我們先從黃超這邊開始。
黃超:我感覺12個月在AI看起來應該好遙遠,都不知道12個月之后會發展成什么樣。首先從我這邊的話,一個詞應該叫“生態”吧。我覺得未來現在Claw讓大家這么活躍了,但是未來Agent真的是要去從真正的個人助手,特別是轉化為“打工人”,我覺得還是很重要的。因為現在可能大家很多時候玩Claw也是新鮮感,覺得好玩,但是我覺得未來可能真的得讓Claw們真的沉淀下來,真的成為大家的一個搬磚的工具,或者是成為真正的Coworker這樣的狀態。
所以我覺得這塊可能需要整個生態的努力,包括整個開源這塊其實就是一個很重要的,把所有的相關技術探索,包括模型的很多技術都開源出去之后,其實需要整個生態大家一起來共建。不管是對于模型的迭代,還是對于Skills平臺的迭代,還有各種工具的迭代,我覺得這塊都需要去更好地面向Claw,去創造更好的生態。
從我自己感覺比較明顯的是,我覺得未來的很多軟件——現在有了Claw,大家又在考慮一個問題:未來軟件是不是還是會給人用的?我們相信可能未來大部分的軟件都不一定會是面向人類的,因為人類是需要GUI,但可能是面向Agent原生的去使用的,我感覺一個比較有趣的,就是人只會去使用讓自己快樂的GUI,有可能會有這樣的一個感受。
我覺得現在整個生態又從不管是GUI還是MCP,又轉到了CLI這樣的模式。所以我覺得這就是需要一個整個生態,需要生態去把不管是軟件系統,還是我們的數據,還是各種技術,都把它變成Agent Native的模式,這樣可能才能讓整個Agent的發展更加豐富。
羅福莉:我覺得把這個問題縮小到一年非常有意義,因為我覺得五年從我心目中對于AGI定義而言,已經實現了。如果說要用一個詞來描述接下來一年AGI歷程里邊最關鍵的一個事情的話,我認為會是“自進化”。雖然這個詞是一個有點玄幻的概念,過去一年大家也多次提到,但是我最近才對這個詞有了一個更深的體會,或者說具體自進化這個事怎么做,會有一個更務實、更實操可行的方案。這里邊的原因是借助于很強大的模型,其實我們之前在Chat那個范式下根本沒有發揮出來預訓練模型的上限,這個上限現在是被Agent框架激活到了,我們現在觸到了當它執行更長時間的任務的時候,我們發現這個模型它可以自己去學習和進化。很簡單一個嘗試,就是說當你在現有的Agent框架里邊給它疊加一個可以Verify的條件限制,然后再給它設置一個Loop,讓這個模型就不停下來持續去迭代優化這個目標,我們就能發現這個模型會持續拿出更好的方案。
如果這樣的一種自進化能持續,現在國內模型其實已經能跑一兩天了,當然跟任務的難度有關。我們發現它在一些科學研究上,比如說去探索一個更好的模型結構,因為模型結構有評估標準,比如說我們看更低的PPL,這是一個評估標準。在這種很確定的任務上,我們發現它已經能自主地優化和執行兩三天了。所以從我的角度上來看,我覺得自進化是一個唯一可以創造新的東西的地方,它不是去替代我們現有的人的生產力,而是說它是像頂尖的科學家一樣去探索出來這個世界上沒有的東西。
一年前我會覺得這個時間歷程會拉到三到五年,但是在近期我會覺得這個時間歷程確實應該縮小到最近一到兩年,可能我們就可以讓大模型疊加一個非常強的自進化的Agent框架,實現對于科學研究的一個至少指數級的加速。因為我最近已經發現,我們組內做大模型研究的同學,基本上他的Workflow是非常不確定的、是高度創造力的,我們發現借助Claude Code或非常頂尖的模型,基本上已經能夠加速我們自己的研究效率近十倍了。所以我很期待這樣的一種范式輻射到更廣的學科和領域,我覺得自進化是非常重要的。
夏立雪:我的關鍵詞叫“可持續Token”。因為我也看到了現在整個AI的發展還在一個長期持續的過程中,我們也希望它是能夠有長久的生命力的。那我們作為基礎設施的角度看到很大的問題就是我們的資源終究是有限的。那我們現在作為一個Token工廠,能否給大家提供持續、穩定、大規模能夠用起來的這些Token,讓我們頂尖的模型能夠真正繼續為更多的下游去服務,是我們看到的一個很重要的問題。
所以我們現在需要把整個視角放寬到剛剛說到的整個生態,從最早的能源到算力,然后再轉化到Token,最終再轉換成GDP這樣的一個鏈路,能夠去進行一個持續的經濟化的迭代。包括我們其實不止在把國內的各種算力用起來,也在把這些能力輸出到海外,讓全球的資源都能夠進行打通和整合。
我也認為這個可持續其實也是想把我們中國特色的Token經濟學給做起來。因為在之前的時代我們叫Made in China,我們能夠把中國的制造業成本優勢變成好的商品輸出到全球。我們現在想做的就是有點像AI Made in China,就是我們能夠把中國的這些能源上的優勢,通過這些Token工廠,可持續地轉化為優質的Token輸出到全球,成為一個世界的Token工廠,這是我想要在今年看到的、中國給世界的人工智能帶來的價值。
張鵬:大家都可能都在仰望星空,我就落地一點。我覺得關鍵詞讓我說未來12個月面臨的最大的問題可能就是“算力”。因為剛才也說了,所有的技術,包括智能體框架,讓很多人有很好的創造力、效率提升十倍,但前提條件就是大家能夠用得起來,你不能因為算力不夠,一個問題提出去讓它思考半天也不給我答案,這個肯定是不行的。
也是因為這樣的一些原因,可能甚至連我們的研究進展,包括很多想要做的事情其實都受阻了。前兩年我記得有句老話叫“沒卡沒感情,談卡傷感情”,我覺得今天又到了這個地步了,但情況又不一樣了,就是剛才講的可能我們又到了推理的階段,轉向推理階段是因為需求真的在爆發,十倍、百倍的爆發,剛才你也說過去十倍,其實需求是一百倍,那還有很大量的需求沒有滿足,怎么辦?我們大家可能一起來想想辦法。
楊植麟:感謝各位的精彩分享,謝謝大家。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.