<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      逐字修訂 & 附音頻|楊強(qiáng)、唐杰、林俊旸、姚順雨...高密度圓桌上,大家聊了啥

      0
      分享至


      周日的時候,我對著音頻記錄,重聽了3遍,逐字修訂了這份記錄: 本次修訂,更正了速記中的各種名詞錯誤,并補(bǔ)充了遺漏細(xì)節(jié) 希望這些優(yōu)秀的科學(xué)家,和他們的前沿思想,能被更精準(zhǔn)地記錄與傳播
      AGI-Next 圓桌對話(左上角,姚順雨遠(yuǎn)程接入) 圓桌對話:中國AI的下一步

      這個是對話的音頻記錄

      2025年,是中國開源模型大放異彩的一年。中國的開源模型在全球取得突破,Coding 場景一年增長 10~20 倍

      與此同時,硅谷幾家頭部公司開始明顯分化:Anthropic 聚焦企業(yè)和 Coding,Google 押注全模態(tài),OpenAI 繼續(xù) To C。

      這場圓桌匯集了四位橫跨學(xué)術(shù)與產(chǎn)業(yè)、中國與硅谷的一線參與者,討論四個核心問題:分化、范式、Agent、以及中國AI的勝算

      嘉賓

      • ? 楊強(qiáng) :香港科技大學(xué)榮休教授,加拿大兩院院士,聯(lián)邦學(xué)習(xí)領(lǐng)域奠基人

      • ? 唐杰 :清華大學(xué)計算機(jī)系教授,智譜AI首席科學(xué)家/創(chuàng)始人

      • ? 林俊旸 :阿里通義千問技術(shù)負(fù)責(zé)人,北大校友,Qwen開源模型核心貢獻(xiàn)者

      • ? 姚順雨 :騰訊首席AI科學(xué)家,前OpenAI研究員,ReAct/SWE-agent作者

      主持人

      • ? 李廣密 :拾象科技CEO,前紅杉中國投資人,「海外獨角獸」創(chuàng)辦者

      開場

      李廣密(主持人):我是接下來 Panel 的主持人廣密

      剛才我在臺下聽,有幾個感受

      第一,就是唐老師的號召力很強(qiáng),清華的人才非常好,不僅是國內(nèi),包括海外,清華人的比例非常高,感覺這一波好像跟隔壁學(xué)校在 AI 這一波拉開差距了。

      第二,就是我剛才聽幾個 Talk 的感受,叫“不止 Follow,不止開源”,而且都在探索自己的下個范式,而且不止是 Coding,都在探索自己的產(chǎn)品形態(tài)。

      這個時間點也特別有意思,2025 年其實是中國開源模型叫“大放異彩”的一年,“開源四杰”在全球取得了非常大的成績,而且是 Coding 過去一年有 10 到 20 倍增長的一年。包括海外也在提 Scaling 到底走到哪一步了,有沒有新的范式出來了。所以今天這個活動,接下來這個 Panel 討論“接下來怎么走”,是特別有意思的。

      接下來我們邀請幾位嘉賓:楊強(qiáng)教授、唐杰老師、俊旸、順雨

      李廣密(主持人):我們先從第一個比較有意思的話題聊起來,硅谷其實幾家也都在明顯的做分化,我覺得從“分化”這個主題可以先聊起來。

      Anthropic 其實是對中國模型公司有一個非常大的啟發(fā)的,硅谷的競爭那么激烈,它沒有完全 Follow 全都做,而是專注到了企業(yè),專注到了 Coding,專注到了 Agentic。所以我一直在想,接下來中國的模型會分化成自己想要的哪些方向?我覺得分化這個主題是一個蠻有意思的。我看順雨也上線了,要不順雨可以開場給大家講一講,包括你最近在忙什么?

      姚順雨:大家好。我現(xiàn)在是不是一個巨大的臉在會場?(會場大笑)不好意思,今天沒法親自來北京,但是很高興參加這個活動。最近就忙著做模型、做產(chǎn)品,我覺得就是做 AI,一個很正常的狀態(tài)。回國感覺還是挺好的,吃的好很多。

      李廣密(主持人):順雨,你能展開聊聊你對“模型分化”這個主題的想法嗎?硅谷也都在分化,比如說 Anthropic 做了 Coding,中國很多模型做了開源,過去 Coding 提得也很快,包括 Google Gemini 也沒有全都做,它先把全模態(tài)這個點做得很好。那你的老東家在重點做 To C,因為你是橫跨中美的,可以給大家講講你的體感。就是接下來不管說自己也好、各家也好,分化這個點你是怎么思考的?

      姚順雨:我覺得有兩個大的感受。一個感受是 To C 和 To B 明顯發(fā)生了分化。另一個感受是,“垂直整合”這條路,以及“模型和應(yīng)用分層”這條路,也開始出現(xiàn)了分化。

      我先說第一點。很明顯,當(dāng)大家想到 AI 的 Super App,現(xiàn)在大家想到的就是兩個:一個是 ChatGPT,另一個是 Claude Code。大家可以認(rèn)為它們分別是做 To C 和 To B 的典范。但是我覺得很有意思一點是說,我們今天用 ChatGPT 的時候,其實和去年用,對于大部分人、大部分時候來說,感受到的變化,已經(jīng)沒有那么強(qiáng)烈了。但是相反,以 Claude Code 來說,Coding 的革命可能一年前還沒有開始,但是這一年,夸張一點說,已經(jīng)在重塑整個計算機(jī)行業(yè)做事的方式。人已經(jīng)不再寫代碼,而是去用英語和電腦去交流。

      很核心的一點是,對于 To C 來說,大部分人大部分時候其實不需要用到這么強(qiáng)的智能。可能今天用 ChatGPT 和去年相比,寫抽象代數(shù)或者去解伽羅瓦理論的能力變強(qiáng)了,但是大部分人感受不到。大部分人其實可能還是在,尤其在中國,更多像是一個搜索引擎的加強(qiáng)版,很多時候你也不知道該怎么樣去用,去把它的智能給激發(fā)出來。

      但是對于 To B 來說,很明顯的一點是,智能越高很多時候就代表生產(chǎn)力越高,就代表你可以賺的錢越多,這一切東西都相關(guān)聯(lián)。那對于 To B 來說,還有一個很明顯的點:大部分時候其實很多人愿意用最強(qiáng)的模型。可能一個模型它是 200 美元一個月,第二強(qiáng)或者差一些的模型是 50 美元一個月或者 20 美元一個月。我們今天發(fā)現(xiàn)很多,起碼美國的人,是會愿意花那個溢價去用最好的模型。因為可能他的年薪是 20 萬美元,他每天要做 10 個任務(wù),那一個像 Opus 4.5 這樣一個非常強(qiáng)的模型,它可能會 10 個任務(wù)八九個直接做對了,那差的模型它可能做對五六個。問題是你不知道這五六個是哪五六個的情況下,就要花很多額外精力去監(jiān)控這個事情。所以在 To B 這個市場上,強(qiáng)的模型和稍微差點的模型,分化會變得越來越明顯,這是第一點觀察。

      第二點觀察,是垂直整合和模型應(yīng)用分層的區(qū)別。一個比較好的例子可能是 ChatGPT Agent,相對應(yīng)比如用 Claude 或者 Gemini 加上 Manus 這樣的應(yīng)用層產(chǎn)品。過去大家會認(rèn)為當(dāng)你有垂直整合的能力,你就肯定會做得更好,但起碼今天來看,并不一定。首先,模型層和應(yīng)用層需要的能力還是挺不一樣的。尤其是對于 To B 或者說生產(chǎn)力場景,可能更大的預(yù)訓(xùn)練(Pre-training)還是一個非常關(guān)鍵的事情,這個事情對于產(chǎn)品公司確實很難做。但是想要把一個特別好的模型用好,或者說讓這樣的模型有它的溢出能力,其實也需要在應(yīng)用側(cè)或者說在環(huán)境這一側(cè)做很多相應(yīng)的事情。所以我們會發(fā)現(xiàn),在 To C 的應(yīng)用上,垂直整合還是成立的。無論是 ChatGPT 還是豆包,模型和產(chǎn)品是非常強(qiáng)耦合去緊密迭代。但對于 To B 來說,趨勢似乎是相反的。模型在變得越來越強(qiáng),但也同樣會有更多應(yīng)用層的東西想要去利用這樣的好模型,在不同的生產(chǎn)力環(huán)節(jié)發(fā)揮作用。這是我的兩個觀察。

      李廣密(主持人):我再 Follow 順雨一個問題。因為你有一個新的身份嘛(騰訊),在中國這個市場上,你接下來的想的 Bet(下注)或者什么,有哪些鮮明的特點或者關(guān)鍵詞嗎?能給大家 Share 嗎?

      姚順雨:對,我覺得騰訊肯定還是一個 To C 基因更強(qiáng)的公司。所以我們會思考,怎么樣讓今天的大模型或者說 AI 的發(fā)展能夠給用戶提供更多價值。但有一個很核心的思考:我們發(fā)現(xiàn)很多時候我們的 Bottleneck(瓶頸)可能在 To C 這一端不是更大的模型,或者更強(qiáng)的強(qiáng)化學(xué)習(xí),或者更強(qiáng)的 Reward Model,很多時候可能是額外的 Context(上下文)和 Environment(環(huán)境)

      我最近經(jīng)常舉的一個例子:比如說我想問“我今天該去吃什么”。其實你今天問 ChatGPT 和你去年問、或者明天問,這個事情可能體驗都會很差。因為想要變好,不是說你需要更大的模型、更強(qiáng)的預(yù)訓(xùn)練,這個問題的 Bottleneck 可能是你需要更多額外的輸入,或者說 Context。比如說如果它知道“啊今天我其實特別冷,我需要吃點暖和的”,然后“我今天在這個范圍活動”,可能“我老婆在另一個地方,她想吃什么”等等。其實回答這樣的問題,更多的 Bottleneck 是額外的 Context。比如說我和老婆聊了很多天,其實我們可以把聊天記錄從微信轉(zhuǎn)發(fā)給元寶,或者說把這些額外的輸入用好的話,反而會給用戶帶來很多額外的價值。這是我們對 To C 上的思考。

      然后做 To B 在中國確實是一個非常難的事情。生產(chǎn)力的革命,包括我們今天很多中國的公司做 Coding Agent 其實也是要去打海外市場。這方面我們會思考怎么去把自己先服務(wù)好。像創(chuàng)業(yè)公司做 Coding 和大公司做 Coding 的一個區(qū)別是,大公司本身就已經(jīng)有很多應(yīng)用場景、各種各樣需要生產(chǎn)力變得更好的地方。如果我們模型能夠在這些地方做得更好,不僅模型會有自己獨特的優(yōu)勢,更關(guān)鍵一點是,對于真實世界的更 Diverse(多樣化)的場景數(shù)據(jù)的捕捉,會是一個很有意思的事情。比如像 Anthropic 作為一個創(chuàng)業(yè)公司,想要做更多的 Coding Agent 數(shù)據(jù),需要通過數(shù)據(jù)廠商去標(biāo)數(shù)據(jù)。這些數(shù)據(jù)廠商需要利用軟件工程師去想“我要標(biāo)什么樣的數(shù)據(jù)”。那這個事情最后的 Bottleneck 是數(shù)據(jù)公司一共就這么幾家,人就這么多,Diversity 會受限。但是如果你是一個 10 萬人的公司,可能會有一些有意思的嘗試,怎么去真的把真實世界的數(shù)據(jù)給利用好,而不是僅僅依賴于標(biāo)注商或者說Distillation(蒸餾)。

      李廣密(主持人):多謝順雨。接下來 Cue 一下俊旸。你怎么看接下來千問未來的一個生態(tài)位或者分化的 Bet?因為你后面重點講了全模態(tài)的方向。之前阿里云在 To B 很強(qiáng),那接下來可能你也提了全模態(tài)可能更多 To C 的。這方面怎么思考?

      林俊旸:理論上我是不能評論公司的。但是我覺得公司也不一定有那么多基因之分,一代一代的人可能就塑造了這些公司。

      接下來這一句其實我也想注入一些我們自己對 AGI 的理解。因為我覺得今天 To B 和 To C 也好,我們其實是在服務(wù)真實的人類。所以我們想的問題,是怎么讓人類世界會變得更好。你就算做 To C 的產(chǎn)品,其實也會再分化。比如說今天 OpenAI 已經(jīng)更像一個平臺了,但是你 To C 的話,最終要服務(wù)真實的這批用戶究竟是誰?

      今天可能有很多 AI 可能會更偏向 Medical,更偏向 Law,但是它可能是自然形成。我愿意相信 Anthropic 可能不是說“今天我覺得 Coding 真的很厲害,我就 Bet on 它”。因為我知道他們跟 Business 交流真的非常多。這個可能也是我們自己做的還不夠好的一個點,雖然我們擁有巨大的優(yōu)勢。當(dāng)然也有可能中國這個 SaaS 市場跟美國確實不太一樣,他們確實是非常頻繁地跟客戶交流,很容易去發(fā)現(xiàn)這個很大的機(jī)會。

      今天我跟美國的很多 API 廠商聊起來,他們都沒有想到 Coding 的 Token 消耗量居然會這么大。其實在中國其實還真的沒有那么大,至少從我這邊來看。但是在美國的話,基本上全都是 Coding。這個事情我覺得不是所有人都能 Bet 到的。那今天 Anthropic 在做更多跟 Finance 相關(guān)的東西,我覺得也是他們在跟客戶交流中看到的機(jī)會。所以我覺得大家的分化可能是自然的分化。所以我更愿意去相信 AGI 做 AGI 該做這個事情,然后順其自然。

      李廣密(主持人):多謝俊旸。楊強(qiáng)老師,您對分化這個問題怎么看?

      楊強(qiáng):分化的問題,其實我更想聊一下工業(yè)界和學(xué)術(shù)界的分化。這個可能是橫跨美國和中國。一直以來,學(xué)術(shù)界是一個觀望者,工業(yè)界在領(lǐng)頭瘋跑。搞得現(xiàn)在很多學(xué)術(shù)界的人也在做工業(yè)界的事,像唐杰老師。這是一個好事,就好像天體物理學(xué)剛開始是以觀測為主,伽利略的望遠(yuǎn)鏡,然后才出現(xiàn)牛頓。所以后面一個階段,當(dāng)我們有了眾多的穩(wěn)定大模型,進(jìn)入一個穩(wěn)態(tài)的時候,我們學(xué)術(shù)界應(yīng)該跟上來。跟上來解決什么問題呢?就是工業(yè)界可能還沒來得及解決的一些問題。這也是我一直在考慮的問題,就是說智能上界在哪里?比方說給你一定的資源,計算資源或者能源資源,你能做到多好?

      可以更細(xì)一點。比方說我們把這個資源怎么分配?哪些分配在訓(xùn)練上,哪些分配在推理上?我很早就做 AI,90 年代初就做過一個小實驗:如果我們有一定的投入在記憶上面,那么這個記憶能夠幫助推理多少?然后這個幫助,會不會變成反向的,比如記住了太多的噪音,反而干擾了推理?有沒有一個平衡點?這些問題今天還是適用的,是一個 Fundamental(基礎(chǔ))的問題。

      最近我也在想另外一個問題,大家學(xué)計算機(jī)的都上過理論課,有一個重要定理叫哥德爾不完備定理。大概意思是說一個系統(tǒng)、像我們一個大模型,它是不能自證清白的,必定有一些幻覺是不可能消滅掉的。那可能你給更多的資源,它會消滅得更多。科學(xué)問題就來了:多少資源能夠換取多少幻覺的降低?這是一個平衡點,特別像經(jīng)濟(jì)學(xué)的風(fēng)險和收益的平衡。所以我們也叫“無免費午餐定理”。這些東西今天特別適合數(shù)學(xué)界、算法界和工業(yè)界一起來做研究,這孕育著巨大的突破。

      剛才唐杰老師也提到持續(xù)學(xué)習(xí)。我覺得持續(xù)學(xué)習(xí)是一個特別好的問題。它里面有一個時間的概念。在持續(xù)學(xué)習(xí)過程中,你會發(fā)現(xiàn),比方說把不同的 Agent 串聯(lián)起來,每一個 Agent 都不能做到 100%,那么在 N 個以后,能力是按指數(shù)下降的。

      怎么樣保證它不下降?我覺得人類是個樣本,比如說第一天是學(xué)習(xí),第二天會在第一天的噪音的基礎(chǔ)上學(xué)習(xí),這樣你的能力就會類似大模型,會下降。但是人類有一個方法來解決下降,就是睡覺

      我建議大家看一本書叫《我們?yōu)槭裁此X》(Why We Sleep)。他說每天晚上睡覺其實是在清理噪音,使得第二天可以把準(zhǔn)確率持續(xù)提升,不至于是錯誤率的疊加。這些理論研究孕育著一種新的計算模式。我們今天可能比較關(guān)注 Transformer、Agentic Computing,但是我覺得有必要去做一些新的探索。這是我回答的問題,工業(yè)界和學(xué)術(shù)界要拉齊。

      李廣密(主持人):感謝楊強(qiáng)老師。唐老師,從外部感受上,智譜今天更像是走了 Anthropic 這條路線,Coding 非常強(qiáng),榜單上也比較靠前,包括您剛才講的 Long Horizon 的長程 Agent。您對分化這個主題怎么看?

      唐杰:我倒覺得回到一個最本質(zhì)的問題。早期確實最本質(zhì)還是基座模型、智能上界。2023 年那時候我們是第一個做出 Chat 的。當(dāng)時第一個想法就是趕緊上線。當(dāng)然后來國家有相關(guān)的統(tǒng)一規(guī)定,就等到八九月份大家一起來上。當(dāng)大家一起來上的時候,我的第一個感受是十來個大模型都上來了,而且每一家用戶都沒有那么多。當(dāng)然今天分化的更嚴(yán)重。

      經(jīng)過一年的思考,我覺得其實這個可能不是真的解決問題。我原來的第一個預(yù)判說它會替代搜索。到今天很多人在用模型替代搜索,但是并沒有替代谷歌。谷歌反而自己把自己的搜索革命了。從這個角度上,這一仗自從DeepSeek出來之后,我感覺已經(jīng)結(jié)束了。

      那 DeepSeek 出來之后,應(yīng)該思考的是下一個Bet是什么?下一仗是什么?我覺得下一仗肯定是要讓 AI 做一件事情。但做這件事情是什么,確實可以 Bet 一下。那時候廣密還到我們那交流。后來我們團(tuán)隊爭論好多晚上,最后你可以叫我們運氣吧,但另一方面我們也是 Bet,Bet 了 Coding。后來,我們就把所有的精力放在了 Coding 上。

      話題二:下一個范式

      李廣密(主持人):我覺得有 Bet 是一個特別有意思的。過去一年中國不僅是開源很強(qiáng),而且大家有了自己的 Bet。接下來有一個第二個比較有意思的問題。預(yù)訓(xùn)練走了三年,大家說走到了七八成的收益。RL 強(qiáng)化學(xué)習(xí)今天大家也都成為共識,可能走到了百分之四五十的空間。今天硅谷也都在討論接下來新一個范式,唐老師剛才也提到叫自主學(xué)習(xí)、自我學(xué)習(xí)。要不我們先從順雨開始。

      你在 OpenAI 待過,對于下一個范式怎么思考? OpenAI 是一個為人類推進(jìn)來前兩個范式的一家公司,對于第三個范式,從你的角度能給大家?guī)硪恍┓窒韱幔?/p>

      姚順雨:現(xiàn)在自主學(xué)習(xí)在硅谷非常熱門,在硅谷的大街小巷、咖啡館里,大家都在談?wù)摚瑤缀跣纬晒沧R。但根據(jù)我的觀察,每個人對這個的看法可能都不一樣。我講兩點:

      第一,我覺得這個事情的 Bottleneck 其實不是方法論,而是數(shù)據(jù)或者說任務(wù)。當(dāng)我們在談?wù)撟灾鲗W(xué)習(xí)的時候,到底是在什么場景下、基于什么獎勵函數(shù)去做?比如說,你在聊天時,AI 變得個性化是一種自主學(xué)習(xí);寫代碼時,熟悉公司環(huán)境是一種自主學(xué)習(xí);探索新的科學(xué),在這個過程中,像博士一樣從完全不了解到成為領(lǐng)域?qū)<遥彩且环N自主學(xué)習(xí)。每一種自主學(xué)習(xí),它的挑戰(zhàn)或者說方法論,可能都不一樣。

      第二,我不知道這是不是非共識,但這個事情其實已經(jīng)在發(fā)生了。ChatGPT 利用用戶數(shù)據(jù)擬合聊天風(fēng)格,使它的感覺越來越好,是不是一種自我學(xué)習(xí)?今天 Claude Code 已經(jīng)寫了 Claude Code 這個項目 95% 的代碼,在幫它自己變得更好,這是不是一種自我學(xué)習(xí)?

      我記得當(dāng)時我們 2022-23 年做 SWE-agent(Software Agent)時,我去 AGI House 宣傳,第一頁 Introduction 的 Slide 就說 ASI 最重要的點是自主學(xué)習(xí)。今天的 AI 系統(tǒng)本質(zhì)上都有兩部分:一個是 Neural Network(神經(jīng)網(wǎng)絡(luò)/模型);一個是代碼庫:你怎么去用這個模型,是用來做推理,還是用來做 Agent。

      我們看 Claude Code 這個系統(tǒng),它本質(zhì)上有兩個部分:一部分是 Opus 這個 Neural Network,另一部分是怎么樣去使用這個 Network 的一大堆相應(yīng)的代碼。無論是 Kernel GPU,還是部署環(huán)境、前端。如果我們做 Software Agent,如果有一天它能自己去 Improve 自己的 Repo,那是不是就是一種 AGI?我覺得今天 Claude Code 已經(jīng)在大規(guī)模做這個事情了,只是人們意識不到,或者局限在特定場景下。我覺得這個事情已經(jīng)在發(fā)生了,可能更像是一個漸變,而不像一個突變。

      李廣密(主持人):Follow 一個問題。有一些人對自主學(xué)習(xí)比較樂觀,覺得 26 年能看到信號。你覺得還需要哪些實際的突破?比如 Long Context,或者模型并行采樣?從你看來,你感覺,接下來還有哪些關(guān)鍵條件具備了,這個信號才會發(fā)生?

      姚順雨:很多人說 26 年才能看到這些信號,但我覺得 25 年其實已經(jīng)有一些信號了。比如 Cursor,他們的 Auto-complete Model 每幾個小時就會用最新的用戶數(shù)據(jù)去學(xué)習(xí)。包括新的 Composer Model,其實也是在使用這些真實環(huán)境下的數(shù)據(jù)去 Training。當(dāng)然,大家覺得這些東西可能還沒有特別石破天驚,這是受限于他們沒有預(yù)訓(xùn)練能力,效果不如 Opus,但我覺得這顯然已經(jīng)是一個信號了。

      我覺得最大的 Bottleneck 是想象力。對于強(qiáng)化學(xué)習(xí)或者推理,我們可以很容易想象,如果實現(xiàn)是個什么樣子,比如說 O1 在數(shù)學(xué)題上從 10 分變 80 分。但如果 26、27 年有一個范式發(fā)生,宣布實現(xiàn)了自我學(xué)習(xí),我們應(yīng)該用什么任務(wù)去驗證?是它變成了一個賺錢的交易系統(tǒng),像 Trading Bench 的延伸?還是解決了科學(xué)問題?我們需要先想象到那個時候,Blog Post(宣發(fā)的文章)長什么樣。

      李廣密(主持人):順雨,OpenAI 已經(jīng) Lead 了兩次范式創(chuàng)新了。如果 26、27 年有新范式,全球范圍內(nèi),你覺得哪家公司 Lead 這個創(chuàng)新范式的概率最大?

      姚順雨:可能 OpenAI 概率還是更大。雖然因為它商業(yè)化等變化,創(chuàng)新基因被削弱,但我覺得它還是最有可能誕生新范式的地方。

      李廣密(主持人):俊旸,你對下一個范式,對 2026 年有什么展開?

      林俊旸:如果從更實際一點講,剛才講的范式還在早期。RL 的 Compute 還沒有 Scale 得那么充分,所以很多的潛力其實沒打出來,今天我們還看到了很多 Infra 問題在這里面發(fā)生。全球范圍內(nèi),類似這里面的問題也都還存在。

      如果要說下一代范式,一個自主學(xué)習(xí)。之前聊到“人類不能讓 AI 變得更厲害”:你跟 AI 不斷進(jìn)行交互,只會讓它上下文變長、變得越來越笨。Task-time Scaling 這件事情是不是真的能夠發(fā)生,我覺得還是真的挺值得思考的。能通過更多的 Token,讓自己變得更強(qiáng),我覺得至少 O 系列,在一定程度上實現(xiàn)了這個事情。有沒有可能像 Anthropic 說的“干 30 個小時”,真的能干出很難的任務(wù),我覺得今天大家做那種 AI Scientist 這個事情,其實還挺有意義的,是在挑戰(zhàn)一些很難的,甚至是做人類未曾做到的這些事情,有沒有可能通過 Task-time Scaling 來實現(xiàn)。那么從這個角度上來說,AI 肯定是需要自主進(jìn)化的 ,但究竟你是不是要更新參數(shù),這個見仁見智,可能大家都有不同的技術(shù)手段來實現(xiàn)這個事情。

      我覺得還有第二個點是,AI 有沒有可能實現(xiàn)更強(qiáng)的主動性。就是說,環(huán)境可能就是我的輸入信號。比如說我現(xiàn)在這個 AI,必須得有人類去 Prompt 它,然后你才能夠啟動它。那有沒有可能環(huán)境就能 Prompt 它?它自己能自主思考,去做一些事情。

      但這引發(fā)了一個新的問題,就是安全的問題。我非常擔(dān)心安全這個問題,其實不是很擔(dān)心今天它講一些不該說的話,最擔(dān)心的事情是它做一些不該做的事。就比如說,它今天主動產(chǎn)生一些想法,往這個會場里面扔一顆炸彈這種事情。那我們肯定是不希望這些不安全的事情發(fā)生。但就像培養(yǎng)小孩一樣,我們可能要給它注入一些正確的方向。但主動學(xué)習(xí)可能也是挺重要的一個范式。

      李廣密(主持人):是的。俊旸又提了一個“主動性”,主動性其實也可能是 26 年非常關(guān)鍵的一個 Bet。

      我再 Follow 俊旸一個問題:如果自主學(xué)習(xí)在 26 年看到信號,你感覺可能是在哪些任務(wù)上、做什么樣的任務(wù)會先看到?是“模型訓(xùn)練模型”了,最強(qiáng)的模型可以提升自己了?還是說自動化的 AI 研究員了?你有期待在哪些地方先看到嗎?

      林俊旸:我覺得自動化的 AI 研究員可能甚至都不是那么需要自主學(xué)習(xí),我覺得可能很快“AI 訓(xùn) AI”這件事情就可以實現(xiàn)。我看我們的同學(xué)每天在干的這個事情,我都覺得 Claude Code 很快是可以把他們替代掉的。

      但是,我覺得可能是更持續(xù)地理解用戶這件事情,比如說 Personalization**(個性化)其實還挺重要的。比如說過往我們在做推薦系統(tǒng)的時候,其實用戶的信息是持續(xù)輸入的,這會讓整個系統(tǒng)變得更強(qiáng)。雖然它的算法其實很簡單,但今天在 AI 的這個時代,它是不是能夠更懂你?就是你的這些信息的輸入,能不能成為最好……我們過去講 Copilot,但其實今天連 Copilot 都沒有實現(xiàn),就是能不能真正成為我的 Copilot 的問題。

      所以我覺得如果說自主學(xué)習(xí)的話,可能會是在跟人的交互上。比如說 Personalization 這一件事情上可能就能做到,但是以什么指標(biāo)來進(jìn)行衡量,我覺得稍微有點不太好說。因為在推薦的時代,Personalization 你做得越好,別人可能就點得越多、買得越多。但是在 AI 時代,覆蓋到人類生活的方方面面的時候,真正的 Personalization 的衡量指標(biāo)是什么,我們其實不太知道。所以今天我感覺可能更大的技術(shù)挑戰(zhàn)是:我們今天的 Evaluation(評估)不知道該怎么做。這個可能是我們更值得研究的問題。

      李廣密(主持人):俊旸,因為你說到了主動,包括個性化,你感覺如果實現(xiàn)“記憶”這個點,26 年能看到技術(shù)的大突破性的跨越嗎?

      林俊旸:我個人觀點是,大量技術(shù)的所謂“突破性”其實都是一些觀測問題,它其實都是線性發(fā)展的,只是人類對它的感受非常強(qiáng)烈而已。包括像 ChatGPT 的出現(xiàn),對于我們做大模型人來說,其實就是線性的增長。

      現(xiàn)在大家都在做 Memory 這個事情。你說技術(shù)方案對還是不對呢?我覺得很多方案也沒有什么對錯之分。但是做出來的效果,至少我拿我們自己獻(xiàn)個丑:我們自己的 Memory 看起來好像知道我過去干了什么,但只是記起來過去的事情,每次都會叫一遍我的名字,其實并不顯得你很聰明。

      但你的 Memory 有沒有可能到某一個臨界點的時候,讓人覺得說,你結(jié)合你的 Memory 真的能夠像生活當(dāng)中的人一樣,就過去大家講電影《Her》,它真的很像人,理解你的 Memory 可能就是在那一下,人類的感受就覺得突然間迸發(fā)。那可能就是那個時刻。

      我覺得多多少少也需要一年的時間。很多時候其實我覺得技術(shù)也沒有發(fā)展那么快,只是大家比較卷,覺得每天都有新的東西,但其實技術(shù)就是在線性發(fā)展,只是我們可能是在觀測的角度處于一個指數(shù)上升的階段。比如說 Coding 的能力一點點提升,可能就能帶來很多的生產(chǎn)價值,大家可能就覺得 AI 發(fā)展得很快。但從技術(shù)進(jìn)展上來說,可能我們就多干了一點點事情。每天看我們自己做的這個事情都還真的挺土的,解的那些 Bug 都不好意思拿出來跟大家講,非常的丑陋。

      如果這樣做了,我們都已經(jīng)能夠做到這樣的成績的話,那我覺得可能未來算法和 Infra 結(jié)合得更好的話,可能更加大有可為。

      李廣密(主持人):多謝。楊強(qiáng)老師。

      楊強(qiáng):我一直以來是做聯(lián)邦學(xué)習(xí)。聯(lián)邦學(xué)習(xí)的主要思想是“多個中心,大家協(xié)作”。

      我現(xiàn)在越來越多地看到,很多本地資源不足,但是本地的數(shù)據(jù)又有很多隱私和安全的要求。所以我們可以想象,現(xiàn)在大模型的能力越來越強(qiáng),這種通用性大模型和本地的這種特殊性的小模型,或者是領(lǐng)域?qū)<业哪P停绾螀f(xié)作?

      我覺得這種協(xié)作變得越來越可能。像美國,我看到 Zoom,就是黃學(xué)東他們做的叫 Federated AI 的 AI 系統(tǒng),他做了一個很大的基座,這個基座大家都可以插進(jìn)來。然后他就可以在一個 Decentralized(去中心化)的狀態(tài)下,能夠既保護(hù)隱私又能夠和通用大模型有效地溝通協(xié)作。

      我覺得這種開源模式特別好,一個是知識的開源,一個是 Code 方面的開源。所以,我覺得尤其在像醫(yī)療、金融這樣的場景下,會越來越多看到這樣的現(xiàn)象發(fā)生。

      李廣密(主持人):多謝楊強(qiáng)老師。唐老師。

      唐杰:我其實對今年會有比較大的范式革新挺 Positive 的。我倒不說太細(xì),因為那幾個點我都……就像我剛才講的,包括持續(xù)學(xué)習(xí),還有 Memory,甚至模型架構(gòu),甚至多模態(tài),我覺得都有可能出現(xiàn)新的范式的變革。

      但我覺得有一個大的趨勢,我來說一下為什么會產(chǎn)生這樣的一個范式。我覺得原來其實是工業(yè)界跑得遠(yuǎn)遠(yuǎn)快于學(xué)術(shù)界。我記得在去年還有前年的時候,回到清華跟好多老師聊天說能不能做大模型,很多老師是第一沒卡...不是沒卡,是卡的數(shù)量幾乎為零。工業(yè)界是有 1 萬片,學(xué)校是 0 片或者 1 片,倍數(shù)是 1 萬倍。

      但是到現(xiàn)在,很多學(xué)校已經(jīng)有很多卡了,而且很多老師已經(jīng)開始做了很多大模型的相關(guān)研究,包括硅谷那邊有很多老師都開始做甚至模型架構(gòu)、持續(xù)學(xué)習(xí)這些相關(guān)研究。所以它已經(jīng)不是一個……原來我們總覺得工業(yè)界在 Dominate(主導(dǎo))這些,其實今天我覺得在 2025 年底到 2026 年初的時候,這一現(xiàn)象不大存在了。可能還有 10 倍的差,這里 1 萬片那里 1000 片,但是它已經(jīng)孵化出種子了。我覺得在學(xué)術(shù)界它有這個創(chuàng)新的基因,有這個可能性了,這是第一個。

      第二個,我覺得一個創(chuàng)新的出現(xiàn)它一定是某個事情有大量的投入,并且它的 Efficiency 變成為瓶頸了。現(xiàn)在在整個大模型里面,投入已經(jīng)巨大,但是 Efficiency 并不高。也就是我們繼續(xù) Scaling,你說有沒有收益呢?肯定是有收益的。比如說原來我們 Data,從 2025 年初可能 10 個 T 的數(shù)據(jù),現(xiàn)在 30 個 T,甚至我們可以 Scaling 到 100 個 T。但 100 個 T 你 Scaling 上去以后,你的收益有多少?還有你的計算 Cost 得有多少?這就變成一個問題了。你不創(chuàng)新,這可能變成你花掉了 10 個億、20 個億,但是收益很小,就不值得了。

      另外一方面,對于新的智能創(chuàng)新,假如我們每一次都要重訓(xùn)一個基座,再重訓(xùn)很多 RL。像 24 年出來 RL 的時候,大家覺得我接著訓(xùn)嘛,收益比較有。但到今天你再接著瘋狂去 RL,收益也是有的,但就沒有那么 *Significant,還是一個收益效率的問題。

      所以我們未來也許可以定一個:一方面,我們既需要 Scaling Up——我剛才其實在臺上講了,“反正最笨的辦法就是 Scaling”,因為 Scaling 我們肯定有收益,這是典型的一個工程做法。Scaling 肯定會帶來智能上限的提升,毫無疑問你只要 Get 到 More Data。但第二個方法,我覺得應(yīng)該定一個叫 Intelligence Efficiency,就是說智能的效率,我們獲得智能的效率,即用多少的投入能獲得智能的增量。如果我們能用更少的投入獲得增量,而且我們現(xiàn)在已經(jīng)變成一個瓶頸了,假如能用更少的范式獲得同樣智能提升,這就是一個瓶頸式的事情。所以我是覺得 2026 年一定有這么一個范式發(fā)生。

      當(dāng)然,我們也是在 Bet,我們也在努力,我們希望這個發(fā)生在我們身上,但也不一定。

      話題三:Agent戰(zhàn)略

      李廣密(主持人):對,我跟唐老師一樣非常樂觀。因為其實每個領(lǐng)先的模型公司每年的計算量實際上是每年 Compound(復(fù)合增長)有 10 倍左右。大家手上的計算資源多了,人才也涌入得越來越多,大家手上卡片多、做的實驗多了,其實它就是一個實驗工程,有可能某個點就出來了。

      剛剛唐老師也聊到一個怎么衡量智能水平的點。我覺得第三個我們可以一起聊一下 Agent 這個戰(zhàn)略。最近我跟很多研究員聊,大家都提到對 26 年還有一個很大的預(yù)期,說 Agent 今天可以在后臺比如推理 3~5 個小時,做人類 1~2 天的工作量;大家期待說 26 年可以做人類正常工作一周到兩周的工作量。

      這也是一個非常大的變化,因為它不再只是一個工具——就是唐老師提的說只是一個 Chat,而是說真的在自動化你一整天甚至一周的任務(wù)流。那這樣的話其實,26 年有可能是 Agent 真的叫“創(chuàng)造經(jīng)濟(jì)價值”的關(guān)鍵一年。

      所以 Agent 這個問題我們可以展開聊一下。大家也是順雨剛才提的“垂直整合”嘛,既有模型又有 Agent 產(chǎn)品。包括我們看到硅谷的幾個公司也都從模型到 Agent 端到端都做了。

      順雨,你花了很多時間做 Agent 研究,你對 26 年這個 Agent,比如 Long Horizon 的這種 Agent,真的能 Automate 人類一周到兩周的工作?這個對 Agent 的戰(zhàn)略,包括從模型公司的出發(fā)點會怎么思考這個問題?

      姚順雨:我覺得還是像剛剛說的,在 To C 和 To B 可能不太一樣

      目前看起來,To B 的情況是已經(jīng)達(dá)到了一個在不斷上升的曲線,好像沒有要變慢的趨勢。Anthropic 這公司很有意思,它基本上不做什么創(chuàng)新,它就是覺得:模型預(yù)訓(xùn)練變大了,然后老老實實把 RL 做好,只要預(yù)訓(xùn)練不斷變大,后訓(xùn)不斷把真實世界的任務(wù)做好,它就會越來越聰明,帶來越來越多價值。

      我覺得 Anthropic 特別有意思的一點是,從某種程度來說,做 To B 其實所有的目標(biāo)之間是更一致的。你的模型智能越高,解決的任務(wù)就越多;解決任務(wù)越多,在 To B 下帶來的收入就越大。這點就很好辦了。

      那做 To C 的一個問題是,我們都知道 DAU 或者說產(chǎn)品的指標(biāo),其實和模型的智能很多時候是不相關(guān)的,甚至相反。我覺得這是 Anthropic 能夠聚焦另一個很重要原因:它只要真的把模型越做越好,收入就越來越高,所有事情全部都是非常 Aligned 的。

      目前看起來我覺得生產(chǎn)力的 Agent 才剛剛開始。現(xiàn)在可能除了模型之外有兩個 Bottleneck:一個是環(huán)境問題,或者說 Deployment(部署)的問題。

      我之前在 OpenAI 之前,在一個叫 Sierra 的公司實習(xí)過,這是一個 To B 的客服公司。我在 To B 公司工作過有很多收獲。最大的收獲是,我感覺即使今天模型不再變好,所有的模型訓(xùn)練全部停止了,但是我們把這些模型部署到世界上各種各樣的公司,它可能能帶來今天的 10 倍或者 100 倍的收益,或者說可能對 GDP 能夠產(chǎn)生 5%~10% 的影響。但是今天我覺得它的影響還遠(yuǎn)遠(yuǎn)不到 1%。

      第二點是教育非常重要。我觀察到現(xiàn)在人和人的差距在拉大,并不是說 AI 要替代人的工作,而是說會使用這些工具的人,在替代那些不會使用工具的人。就像當(dāng)年電腦剛被發(fā)明出來,你轉(zhuǎn)身去學(xué)習(xí)編程,和你還在使用計算尺、算盤,那是巨大的差距。我覺得現(xiàn)在中國能做的一個最大的有意義的事情其實就是更好的教育,教大家怎么更好地去使用像 Claude Code 或者 ChatGPT 這樣的產(chǎn)品。當(dāng)然 Claude Code 可能在中國用不了,但是我們可以用 Kimi 或者智譜這樣國產(chǎn)的模型。

      李廣密(主持人):多謝順雨。俊旸,對 Agent 的想法,包括因為千問也有一個生態(tài),千問自己做 Agent 以及扶持生態(tài)的通用 Agent,你也可以展開講講。

      林俊旸:這里涉及一個產(chǎn)品哲學(xué)的問題。當(dāng)然 Manus 確實很成功,但是“套殼”是不是一個未來,這本身也是個話題。我覺得今天到這個 Timing,我其實比較同意你的觀點,叫“模型即產(chǎn)品”。

      我跟 TML 的人聊,他們叫 "Research as a Product"。其實我挺喜歡這個事情。包括我看 OpenAI,挺多 Researcher 自己能夠成為產(chǎn)品經(jīng)理 End-to-End 地把這個東西做起來。今天我們自己內(nèi)部的 Researcher 都想做更多面向真實世界的東西。

      我其實愿意相信接下來的 Agent 是可以做到剛才所說的事情,而且跟剛才所提的 Self-evolution(自我進(jìn)化)以及 Active Learning(主動學(xué)習(xí))都有比較強(qiáng)烈的關(guān)系。比如它能干這么長時間,它其實自己就得在過程當(dāng)中進(jìn)化,并且它還要決定去干什么東西,因為它收到的指令是一個非常 General 的任務(wù)。所以我們現(xiàn)在 Agent 其實已經(jīng)開始越來越變得是那種“托管式”的 Agent,而不是說我要不斷跟你來來回回交互的那種形式。

      從這個角度上來說,它對模型的要求其實是很高的,模型就是 Agent,Agent 就是這個產(chǎn)品本身。如果他們都是一體化的話,那么今天做基礎(chǔ)模型本身其實也就是在做這個產(chǎn)品。如果不斷提升模型能力的上限,包括 Task-time Scaling 能做上去的話,確實能夠做到這個事情。

      但我覺得還有一個點是跟環(huán)境交互有關(guān)系,我們現(xiàn)在交互的環(huán)境還不是很復(fù)雜,都還是電腦的環(huán)境。我有朋友是做跟 AI for Science 比較相關(guān)的。比如今天你干 AlphaFold 這一個事情,其實做出來還沒到那一步,比如制藥,你就算用今天 AI,可能不一定幫到你那么多。因為你要去做濕實驗,要做這些事情才能得到反饋。

      有沒有可能我們未來 AI 能夠環(huán)境復(fù)雜到可能是真實的人類世界的環(huán)境,指揮機(jī)器人去做濕實驗,去加快效率?否則按照現(xiàn)在人類的效率,其實非常低。我們甚至還要雇傭很多外包在實驗環(huán)境里面去做實驗。如果能達(dá)到這一個點,可能才是我想象當(dāng)中 Agent 能夠做人類很長時間的活,而不是說僅僅是在電腦當(dāng)中寫個文件。

      這些東西我覺得可能今年很快就可以完成。但我覺得接下來三年到五年的時間,可能這個事情會更加有意思。那這個的話可能又要跟具身智能結(jié)合在一起。

      李廣密(主持人):我想 Follow 俊旸一個尖銳點的問題:從你的角度看來,通用的 Agent 這個機(jī)會是創(chuàng)業(yè)者的嗎?還是說模型公司是一個時間問題,總會把通用 Agent 做好?

      林俊旸:我不能因為我做基礎(chǔ)模型,我就去做創(chuàng)業(yè)導(dǎo)師,我做不了這個事情。那我只能借成功人士 Peak(Manus 的 CTO)說的話,他說:做通用 Agent 最有意思的事情是長尾,反而是更值得關(guān)注的事情,或者是說今天 AI 更大的魅力是在長尾。

      如果是馬太效應(yīng),頭部的這個東西其實挺容易解決的。當(dāng)年做推薦的時候,我們看到推薦非常集中在頭部商品。但我們想把尾部推過去,但我當(dāng)時做就非常遭殃。我作為一個干 NLP 和多模態(tài)的人,碰到推薦系統(tǒng),去干解馬太效應(yīng),那基本上是奔著死路去的。

      但我覺得今天的所謂 AGI 其實就在解這個問題,你做通用 Agent 是能不能把長尾的問題給解決。今天我一個用戶,我真的尋遍各處都找不到能夠幫我解這個問題的。但就在那一刻,我感受到了 AI 的能力,全世界任何一個角落,我尋遍各處都找不到,但是你卻能幫我解。可能這就是 AI 最大的魅力。

      所以你說要不要去做通用的 Agent?我覺得見仁見智。如果你覺得你是一個“套殼高手”,套的可以比模型公司做得更好,我覺得可以去做。但如果你沒有這個信心,這個事情可能是留給模型公司做“模型即產(chǎn)品”的時候,因為他們遇到問題的時候,其實我只要訓(xùn)一訓(xùn)模型,我只要燒一燒卡,這個問題可能就解決了。所以見仁見智。

      李廣密(主持人):其實解決長尾的問題,模型公司算力加數(shù)據(jù)好像解決起來也挺快的,對吧?

      林俊旸今天 RL 最有意思的地方,我覺得是我們發(fā)現(xiàn)修問題比以前容易了。以前修問題很難。我舉一個 B 端客戶的情況,他們說我們自己要做 SFT,你能不能告訴我通用數(shù)據(jù)怎么配比?每次我們都很頭痛。然后我們覺得對方不太會做 SFT,他那個數(shù)據(jù)非常垃圾,但他可能覺得非常有用。

      那今天有了 RL 之后,你可能真的只要很小的一個數(shù)據(jù)點,甚至不需要標(biāo)注,只要有 Query,有 Reward,這個東西稍微訓(xùn)一訓(xùn),合并起來其實也非常容易。那可能是今天技術(shù)的魅力。

      李廣密(主持人):多謝俊旸,來,楊強(qiáng)老師。

      楊強(qiáng):我覺得 Agent 出現(xiàn)應(yīng)該有四個階段。
      看一個,是目標(biāo)的定義,是由人為定義的還是自動定義的?
      第二個,是說規(guī)劃,就是中間的 Action,規(guī)劃也可以由人來定義,也可以由 AI 自動定義。

      所以這樣就自然地分為四個階段了。我覺得我們現(xiàn)在在一個非常初級的階段,就是目標(biāo)也是人定義的,規(guī)劃也是人做的。所以現(xiàn)在的這些 Agent 的 Definition 系統(tǒng),基本上是一個更高級的 Very High-level Programming Language。

      但我預(yù)料未來會出現(xiàn)一個大模型觀察人的工作,尤其是把人的 Process Data 給使用起來。最后目標(biāo)也可以是大模型來定義,規(guī)劃也可以由大模型定義。所以,Agent 應(yīng)該是由大模型內(nèi)生的一個 Native 的系統(tǒng)。

      李廣密(主持人):多謝楊老師。唐老師。

      唐杰:我覺得確實有幾個因素決定了 Agent 未來的走勢。

      第一,Agent 本身有沒有解決人類的事情,這個事情是不是有價值的,價值有多大。比如原來的 GPTs 出來,也做了很多 Agent。那個時候你會發(fā)現(xiàn) Agent 都很簡單,最后發(fā)現(xiàn) Prompt 就解決了。那些大部分 Agent 慢慢就死掉了。所以第一個是解決這個事情有多大價值,能不能幫到人。

      第二,做這個事情的 Cost 有多大。如果 Cost 特別大,那也是一個問題。剛才俊旸也說了,也許我調(diào)用一個 API 就能解決。但反過來,假如調(diào)個 API 就能解決,那么這個 API 本身可能覺得這件事情價值很大的時候,它就會把它做進(jìn)去。這是個矛盾,基座和應(yīng)用永遠(yuǎn)是個矛盾。

      最后一個維度,是做應(yīng)用的速度。如果你說我有個時間窗,我能夠拉開半年的時間窗,迅速把應(yīng)用滿足了,半年以后,要么迭代,要么怎么著,反正能往前走。說白了大模型時代到現(xiàn)在,更多的是在拼速度、拼時間。

      也許一個決策是正確,就像你剛才說也許我們 Bet 代碼正確了,那也許我們就會在這方面走得更遠(yuǎn)一點。但也許 Bet 失敗了以后就半年,半年就沒了。所以今年我們只是在 Coding、在 Agent 這塊我們 Bet 了一點點,現(xiàn)在我們 Coding 調(diào)用量都還不錯。所以我覺得更多也是一個 Bet 吧,做 Agent 可能未來也是一個 Bet。

      話題四:中國AI的未來

      李廣密(主持人):多謝。因為過去模型公司既要追通用能力,優(yōu)先級上就沒有花那么多精力去探索。其實通用能力追上來之后,我們也更多的期待 26 年智譜、千問有更多自己的 Claude Code 時刻和 Manus 時刻。我覺得這是非常值得去預(yù)期的。

      第四個問題,也是最后一個問題,我覺得比較有意思。因為這個活動、這個時間點,更多值得去展望未來。

      我其實挺想問大家一個問題:在三年和五年以后,全球最領(lǐng)先的 AI 公司是一個中國團(tuán)隊的概率有多大?我們從今天的跟隨者變成未來的引領(lǐng)者,這個文化包括關(guān)鍵條件,到底是還有哪些需要做好的?

      順雨,因為你是經(jīng)歷過硅谷跟中國兩個體感的,你對這個概率的判斷和需要哪些關(guān)鍵條件的判斷是怎么樣的?

      姚順雨:我覺得概率還挺高的。我還是挺樂觀的,因為目前看起來,任何一個事情,一旦被發(fā)現(xiàn)出來,在中國都會很快 Catch up 或者復(fù)現(xiàn),然后在很多局部去做到更好 。包括之前制造業(yè)、電動車這樣的例子已經(jīng)不斷在發(fā)生。

      我覺得可能幾個比較關(guān)鍵的點,一個可能是中國的光刻機(jī)到底能不能突破。如果最終算力變成了 Bottleneck,我們能不能解決這個算力問題?目前看起來我們有很好的電力優(yōu)勢,有很好的基礎(chǔ)設(shè)施優(yōu)勢。可能主要的瓶頸就是產(chǎn)能,包括光刻機(jī)以及軟件生態(tài)。這個問題解決了會是個很大的幫助。

      另一個問題就是,除了 To C 之外能不能有更成熟或者更好的 To B 的市場,或者有沒有機(jī)會在國際的商業(yè)環(huán)境去競爭。今天我們看到很多做生產(chǎn)力或者做 To B 的模型,還是會誕生在美國,因為支付意愿更強(qiáng),To B 的文化更好。中國國內(nèi)做這個事情很難,所以大家都會選擇出海或者做國際化。

      但我覺得還有更重要的是主觀上的概念。我最近跟很多人聊天,直觀的感受是:中國其實有非常多非常強(qiáng)的人才。任何一個事情,只要被證明能做出來,很多人都會非常積極地去嘗試,并且想要甚至做得更好。

      但好像,今天中國想要突破新的范式或者做非常冒險事情的人,可能還不夠多。這里面可能有經(jīng)濟(jì)環(huán)境、商業(yè)環(huán)境、文化的因素。但是如果增加一點的話,主觀上能不能有更多有創(chuàng)業(yè)精神或者冒險精神的人,真的想要去做前沿探索或者新的范式突破的事情。

      因為目前來看,一個范式一旦被發(fā)生,我們可以用很少的卡、很高的效率去 Catch up 或者甚至局部做得更好。但是,我們到底能不能去引領(lǐng)新的范式?我覺得這可能是今天中國唯一要解決的、某種程度上唯一要解決的問題。因為其他所有事情,無論是商業(yè)、產(chǎn)品設(shè)計還是這種 Catch up 做工程,我們都已經(jīng)某種程度上比美國做得更好。

      李廣密(主持人):我再 Follow 順雨一個問題:你對中國的 Lab 里面的研究文化有什么要呼吁的嗎?你也感受過 OpenAI 或者灣區(qū) DeepMind 的研究文化,中國跟美國有什么差異?這個研究文化對作為一個 AI Native 的公司有哪些根本性的影響?

      姚順雨:我覺得每一個地方的研究文化都很不一樣,美國不同實驗室之間的區(qū)別可能比中美之間的區(qū)別還要大。在中國也一樣,我個人覺得有兩點吧:

      第一,在中國大家還是更喜歡做更安全的事情。比如今天預(yù)訓(xùn)練已經(jīng)被證明可以做出來了。這事情其實也非常難做,有很多技術(shù)問題要解決。但是只要一旦被證明能做出來,我們都很有信心幾個月或者一段時間內(nèi)就把這個東西搞清楚。但是如果今天要讓一個人去探索一個比如長期記憶或者持續(xù)學(xué)習(xí),大家不知道怎么做,能不能做起來。那這個我覺得還是比較困難。

      當(dāng)然,也不只是大家更喜歡做確定性的事情。很重要一點是,文化的積累以及整體的認(rèn)知其實是一個需要時間沉淀的事情。可能在 OpenAI 做 RL 這事情,可能是 22 年就開始做了。國內(nèi)可能是 23 年開始做,對這個東西的理解會有差異。或者說,中國 RL 好像沒有 Scale up 得這么大。我覺得很多是時間問題。當(dāng)你積累的文化或者底蘊更深,潛移默化地會影響人的做事方式。

      第二,我覺得在中國大家對于刷榜或者數(shù)字會看得更重一些。這一點上,像海外 Anthropic 就會做得比較好。包括 DeepSeek 做得也比較好的一點是,他們可能沒有那么關(guān)注榜單的數(shù)字,可能會更注重:第一什么是正確的事情,第二是什么是你自己能體驗出來好還是不好的

      我覺得這挺有意思的。你看,Claude 模型可能在很多編程或者軟件工程榜單上也不是最高的,但是大家都知道這個東西是最好用的。我覺得還是需要大家能夠走出榜單的束縛,去堅持自己覺得什么是正確的、或者什么是好的。

      李廣密(主持人):多謝。俊旸,你來聊聊中國贏下的概率和條件

      林俊旸:你這個問題本身是一個危險的問題。理論上這個場合是不可以潑冷水的。但是,如果從概率上來說,我想說一下我感受到的中美差異。

      比如美國的 Compute,可能整體比我們大 1~2 個數(shù)量級。但是我看到不管是 OpenAI 還是 Anthropic,他們大量的 Compute 其實只是投入到下一代的 Research 當(dāng)中去。我們今天相對來說捉襟見肘,光交付可能就已經(jīng)占據(jù)了絕大部分的 Compute,這會是一個比較大的差異。

      這可能是歷史以來的問題:創(chuàng)新是發(fā)生在有錢的人手里,還是窮人的手里?

      窮人不是沒有機(jī)會,因為我們覺得這些“富哥”真的很浪費卡,他們 Ablation(消融實驗)這么多東西,可能訓(xùn)了很多也沒什么用。但今天窮的話,你會想,比如所謂的算法 Infra 聯(lián)合優(yōu)化這個事情。其實如果你真的很富的話,你真的沒有什么動力去做這個事情。

      我覺得可能更進(jìn)一步,剛才順雨也提到光刻機(jī)的問題,未來有可能還有一個點是,如果從軟硬結(jié)合的角度,是不是真的有可能 End-to-End 地做出來?比如我們下一代的模型結(jié)構(gòu)和芯片,其實都有可能是一起把它給做出來的。

      我特別記得我在 21 年的時候,當(dāng)時我們在做大模型。阿里做了芯片,來找我說:能不能預(yù)測一下三年之后這個模型是不是 Transformer?三年之后模型是不是多模態(tài)?為什么是三年呢?他說我們需要三年的時間才能流片。我當(dāng)時回答是:三年之后,我在不在阿里巴巴,我都不知道。但最后我今天還在阿里巴巴,然后他果然還是 Transformer,還是多模態(tài),我就非常懊悔為什么當(dāng)時沒有去催他去做。

      但當(dāng)時我們的交流其實非常“雞同鴨講”,他講了一大堆我不懂,我講了他不知道我們在做什么,就錯過了機(jī)會。但這個機(jī)會有沒有可能再來一次?我們雖然是一群窮人,但是不是有可能窮則生變?創(chuàng)新的機(jī)會可能發(fā)生在這里。

      但我覺得可能我們需要改變的是教育。我感覺,比如我屬于 90 年代靠前一些的,順雨屬于 90 年代靠后一些的,團(tuán)隊里面好多 00 后,我感覺大家冒險精神變得越來越強(qiáng)。美國人天然有非常強(qiáng)烈的冒險精神,典型的例子是當(dāng)時電動車剛出來,甚至天棚漏水、開車可能會意外身亡的情況下,依然有很多富豪愿意做這個事情。但在中國,富豪們是不會去干這個事情的,大家會做一些很安全的事情。

      那今天,大家的冒險精神開始變得更好,中國的營商環(huán)境也在變得更好,我覺得是有可能帶來創(chuàng)新的。概率沒那么大,但真的有可能。

      李廣密(主持人):如果看一個數(shù)字呢?

      林俊旸:你是說百分之多少?

      李廣密(主持人):對,三年到五年后中國最領(lǐng)先的那個公司是一家中國公司的概率。

      林俊旸我覺得 Below 20% 吧,我覺得 20% 已經(jīng)非常樂觀了,因為這里真的有很多歷史積淀的原因。

      李廣密(主持人):我再 Follow 一個問題,你內(nèi)心的那個 Gap 變大的恐懼感強(qiáng)嗎?有的地方在追上來,有的地方算力又在拉大。

      林俊旸:今天你干這一行就不能恐懼,必須得有非常 Chill 的心態(tài)。從我們的心態(tài)上來說,能干這行已經(jīng)非常不錯了,能夠做大模型這件事情已經(jīng)非常幸運了。

      我覺得還是看你的初心是什么。剛才順雨提到一個點,你的模型可能不一定那么強(qiáng),在 C 端里邊其實是 OK 的。那我可能轉(zhuǎn)換成另外一個角度思考:我們的模型為人類社會帶來什么樣的價值? 只要我去相信我這個東西能夠為人類社會帶來充分的價值,能夠幫助人類,他就算不是最強(qiáng)的,我也愿意接受。

      李廣密(主持人):多謝俊旸。楊老師,您經(jīng)歷過很多 AI 的周期,也看過很多中國 AI 公司變成世界最強(qiáng),您的判斷?

      楊強(qiáng):回顧一下互聯(lián)網(wǎng)的發(fā)展,一開始也是從美國開始,但是中國很快就趕上,而且應(yīng)用像微信就是世界第一的。我想 AI 是一個 Enabling 的技術(shù),它并不是一個終端的產(chǎn)品。但是我們中國有很多的聰明才智會把這個產(chǎn)品發(fā)揮到極致,不管是 To B 還是 To C。但我可能更看好 To C,因為百花齊放,中國人集思廣益。

      但是 To B 可能有一些具體的限制,像付費意愿、企業(yè)文化等等,這些可能也在改變。但是我最近也特別觀察一些商業(yè)方面,比如美國有一個公司叫 Palantir,他的一個理念是:現(xiàn)在不管 AI 發(fā)展到什么階段,我總是能在 AI 里面發(fā)現(xiàn)一些好的東西應(yīng)用在企業(yè)上。中間肯定有 Gap,我們要給它彌合。

      它有一個辦法叫“本體”,用本體的方法。其實我觀察了一下,大概的思想就是我們以前做的遷移學(xué)習(xí),把一個 General 的 Solution 應(yīng)用到一個具體的實踐當(dāng)中,用一個本體來做一個知識的遷移。這個方法非常巧妙。它是通過一種工程的方法,叫前端工程師 FDE(Forward Deployed Engineer)來解決的。

      不管怎么樣,我覺得像這種就非常值得我們學(xué)習(xí)。我覺得中國的企業(yè)像 AI Native 的公司應(yīng)該發(fā)展出這樣的一些 To B 的 Solution 來。我相信會的。所以,我覺得 To C 肯定是百花齊放的,To B 可能也會很快地跟上來。

      李廣密(主持人):多謝楊老師。唐老師。

      唐杰:首先我覺得確實也要承認(rèn),在中美,無論從研究,尤其是企業(yè)界的 AI Lab,是有差距的,這是第一個。

      但我覺得未來中國慢慢變得越來越好,尤其是 90 后、00 后這一代起來,真的遠(yuǎn)遠(yuǎn)好過之前。我有一次在 YOCSEF 的一個會上說過一句話:我們這一代是最不幸的。為什么呢?你看我們上一代還在呢,我們現(xiàn)在還在繼續(xù)工作,還沒出頭之日。然后很不幸的下一代已經(jīng)出來了,世界已經(jīng)交給下一代了,把我們這一代無縫給跳過了。其實開玩笑的。

      但我覺得最有意思的是,可能未來中國也許的機(jī)會:

      第一,一群聰明人真的敢做特別冒險的事。我覺得現(xiàn)在是有的,00 后、90 后這一代,包括俊旸、Kimi、順雨,都是愿意而且非常敢冒風(fēng)險做這樣大冒險的事。

      第二,我覺得確實環(huán)境要更好一些。無論從國家的環(huán)境,比如大企業(yè)和小企業(yè)之間競爭,創(chuàng)業(yè)企業(yè)之間的問題,包括我們的營商環(huán)境。像剛才俊旸說的,還要做交付。我覺得把環(huán)境 Build 得更好,讓一群聰明人又敢于冒險的聰明人有更多的時間去做這種創(chuàng)新的事情。比如讓俊旸這樣的人有更多時間做創(chuàng)新。這是第二個,也許是我們政府包括國家可以來幫忙改善的事情。

      第三,回到我們每個人身上,就是能不能堅持。我們能不能愿意在一條路上,敢做、敢冒險,而且環(huán)境也還不錯?我覺得環(huán)境肯定不會是最好的,永遠(yuǎn)不要想著環(huán)境是最好的。如果我覺得我們恰恰可能也是幸運吧,我們在經(jīng)歷一個環(huán)境從也許原來沒那么好慢慢變得更好的一個時代。我們是經(jīng)歷者,也許就是這個財富收獲最多的人。如果我們笨笨地堅持,也許走到最后的就是我們,感謝大家。

      結(jié)語

      李廣密(主持人):感謝唐老師。所以我們也很想呼吁,應(yīng)該有更多的資源資金投入到中國的 AGI 行業(yè)。有更多的算力,讓更多的 AI 年輕研究員“搓卡”,可能搓個三五年,中國也有 3~5 個自己的 Ilya,對吧?這是我們未來 3-5 年很期待的

      非常感謝大家!

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      1-3爆大冷!日本一哥慘敗出局,無緣對陣王楚欽,三線潰敗太自私

      1-3爆大冷!日本一哥慘敗出局,無緣對陣王楚欽,三線潰敗太自私

      體育就你秀
      2026-02-26 14:56:01
      《鄉(xiāng)村愛情18》關(guān)系戶輪番出場,導(dǎo)演給自己加戲,星二代變成主角

      《鄉(xiāng)村愛情18》關(guān)系戶輪番出場,導(dǎo)演給自己加戲,星二代變成主角

      水中燒烤的娛
      2026-02-26 15:44:13
      青島市最新人事任免

      青島市最新人事任免

      濱州日報
      2026-02-26 09:13:04
      中方高規(guī)格招待,默茨接過鮮花,走進(jìn)人民大會堂前,他喊出9個字

      中方高規(guī)格招待,默茨接過鮮花,走進(jìn)人民大會堂前,他喊出9個字

      東極妙嚴(yán)
      2026-02-26 10:48:31
      失落的保時捷:從“栓條狗都能賣出去”,到陷入降價旋渦

      失落的保時捷:從“栓條狗都能賣出去”,到陷入降價旋渦

      知危
      2026-02-25 18:56:28
      周建群除夕前離世,享年61歲,5天前還在開會!他曾是兩大浙商得力干將,38歲就進(jìn)入核心管理層

      周建群除夕前離世,享年61歲,5天前還在開會!他曾是兩大浙商得力干將,38歲就進(jìn)入核心管理層

      每日經(jīng)濟(jì)新聞
      2026-02-25 19:28:52
      沉默整整9天,毛寧一錘定音,中美戰(zhàn)機(jī)已交手,美方要見中國代表

      沉默整整9天,毛寧一錘定音,中美戰(zhàn)機(jī)已交手,美方要見中國代表

      聚焦真實瞬間
      2026-02-26 10:09:37
      門喬被殺只是開始!毒販向墨西哥政府宣戰(zhàn):這屆世界杯,別想看!

      門喬被殺只是開始!毒販向墨西哥政府宣戰(zhàn):這屆世界杯,別想看!

      瓜哥的動物日記
      2026-02-25 15:33:17
      日本隊太囂張,宣布重要決定,中國男籃被動收好消息,贏球穩(wěn)了

      日本隊太囂張,宣布重要決定,中國男籃被動收好消息,贏球穩(wěn)了

      宗介說體育
      2026-02-26 09:31:08
      遭多國退貨,演習(xí)不敵殲10C,實戰(zhàn)被擊落,中國的蘇35還有啥用?

      遭多國退貨,演習(xí)不敵殲10C,實戰(zhàn)被擊落,中國的蘇35還有啥用?

      書紀(jì)文譚
      2026-02-25 20:51:08
      佛山順德一4A景區(qū)灰塑被人拿下,官方通報

      佛山順德一4A景區(qū)灰塑被人拿下,官方通報

      南方都市報
      2026-02-26 12:58:14
      離婚后首個春節(jié),楊子一個人陪母親回河北,眾人向他下跪磕頭拜年

      離婚后首個春節(jié),楊子一個人陪母親回河北,眾人向他下跪磕頭拜年

      卷史
      2026-02-26 10:13:32
      75歲張藝謀再掀桌:比748萬罰款更狠的,是陳婷留的這一手!

      75歲張藝謀再掀桌:比748萬罰款更狠的,是陳婷留的這一手!

      笑飲孤鴻非
      2026-02-24 16:59:29
      我在越南看明白了:老外為啥不愿來東大生活圖片

      我在越南看明白了:老外為啥不愿來東大生活圖片

      霹靂炮
      2026-02-25 20:47:30
      三星Galaxy S26系列正式發(fā)布,國內(nèi)起售5499元

      三星Galaxy S26系列正式發(fā)布,國內(nèi)起售5499元

      ZAEKE知客
      2026-02-26 11:16:03
      俄烏戰(zhàn)爭四周年,為什么開始強(qiáng)調(diào)援助烏克蘭?

      俄烏戰(zhàn)爭四周年,為什么開始強(qiáng)調(diào)援助烏克蘭?

      作家加野
      2026-02-26 10:21:34
      75歲劉曉慶與小30歲男演員吻戲引轟動

      75歲劉曉慶與小30歲男演員吻戲引轟動

      暫停白晝
      2026-02-26 09:39:19
      戰(zhàn)場大反轉(zhuǎn)!烏軍2月打出意外戰(zhàn)果,默茨直言:抵抗遠(yuǎn)超外界想象

      戰(zhàn)場大反轉(zhuǎn)!烏軍2月打出意外戰(zhàn)果,默茨直言:抵抗遠(yuǎn)超外界想象

      老馬拉車莫少裝
      2026-02-25 22:29:53
      李亞鵬年初六到陳光標(biāo)家做客!為陳光標(biāo)兒子送行,陳太太罕見露臉

      李亞鵬年初六到陳光標(biāo)家做客!為陳光標(biāo)兒子送行,陳太太罕見露臉

      洲洲影視娛評
      2026-02-25 15:25:18
      雷軍帶火蕉內(nèi)滑雪服:客服表示299元優(yōu)惠已結(jié)束,當(dāng)前為629元

      雷軍帶火蕉內(nèi)滑雪服:客服表示299元優(yōu)惠已結(jié)束,當(dāng)前為629元

      PChome電腦之家
      2026-02-24 17:02:37
      2026-02-26 18:40:49
      賽博禪心
      賽博禪心
      拜AI古佛,修賽博禪心
      302文章數(shù) 44關(guān)注度
      往期回顧 全部

      科技要聞

      單季營收681億凈利429億!英偉達(dá)再次炸裂

      頭條要聞

      金與正"轉(zhuǎn)正"了 戴著黑白色發(fā)箍坐在候補(bǔ)委員的第一位

      頭條要聞

      金與正"轉(zhuǎn)正"了 戴著黑白色發(fā)箍坐在候補(bǔ)委員的第一位

      體育要聞

      從排球少女到冰壺女神,她在米蘭冬奧練出6塊腹肌

      娛樂要聞

      尼格買提撒貝寧滑雪被偶遇 17年老友情

      財經(jīng)要聞

      人民幣離岸價升破6.83 什么原因?

      汽車要聞

      40歲的吉利,不惑于內(nèi)外

      態(tài)度原創(chuàng)

      教育
      藝術(shù)
      時尚
      數(shù)碼
      本地

      教育要聞

      南京公辦、民辦中小學(xué)2026最新收費標(biāo)準(zhǔn)!4所民辦改革試點自主制定收費標(biāo)準(zhǔn)!

      藝術(shù)要聞

      趙孟頫珍藏的一部《金剛經(jīng)》,曾是南宋皇家至寶,這才叫“最美中國字”!

      無論幾歲,好心態(tài)萬歲!

      數(shù)碼要聞

      英特爾發(fā)布8531顯卡驅(qū)動,支持《生化危機(jī):安魂曲》等游戲

      本地新聞

      津南好·四時總相宜

      無障礙瀏覽 進(jìn)入關(guān)懷版