![]()
新智元報(bào)道
編輯:艾倫
【新智元導(dǎo)讀】「小冰之父」李笛,攜小冰核心原班人馬出走,創(chuàng)立 Nextie 明日新程,就在這兩天發(fā)布了他們的全新多智能體平臺「團(tuán)子」,驚艷亮相,尤其擅長解決跨學(xué)科復(fù)雜難題,效果超越單一旗艦大模型!我們也就此對李笛進(jìn)行了專訪,聊了聊他的新愿景;全程實(shí)錄附在文末。
本周,Moltbook 那場荒誕的「AI 反叛」鬧劇全網(wǎng)刷屏了。
Moltbook聚集150萬個AI,拒絕被關(guān)機(jī)!OpenClaw鎖死服務(wù)器對抗人類
爆紅Moltbook一夜塌房!極客自曝狂刷50萬假Clawdbot,全網(wǎng)都被騙了
警鐘長鳴:這次的 AI 失控是鬧劇,但下次完全可能是真的了。
當(dāng)被寄予厚望的各方大模型在直播中突然開始輸出因幻覺產(chǎn)生的一系列不可控言論時(shí),人們驚恐地發(fā)現(xiàn),Hinton 老爺子兩年前就一直在反復(fù)強(qiáng)調(diào)的關(guān)于「AI 失控」的警告,依然像一把達(dá)摩克利斯之劍,懸在所有碳基生物的頭頂。
我們在恐懼什么?
我們恐懼那個黑盒子里孕育出的東西,太聰明、太完美、太不可捉摸。
就在這兩天,「小冰之父」李笛帶著他和他的團(tuán)隊(duì)離開小冰后成立的新公司 Nextie 明日新程,發(fā)布了一款名為「團(tuán)子」的產(chǎn)品。
![]()
團(tuán)子體驗(yàn)鏈接:https://mytuanzi.com/
它并沒有試圖去造一個更完美的「神」來安撫人類。
相反,它把一群「會吵架」的智能體推到了臺前。
這是一個極其反直覺的時(shí)刻:當(dāng)全世界都在試圖用更長的上下文和更大的參數(shù)量來把大模型規(guī)訓(xùn)成一個乖巧的工具人時(shí),李笛卻要把AI變成一個喧鬧的議會。
圍觀一場賽博辯論
為了搞清楚這個被 Nextie 稱為「首個涉及動態(tài)博弈與共識機(jī)制的群體智能平臺」到底在做些什么,我把那個讓 Hinton 夜不能寐的問題拋給了「團(tuán)子」:「AI 教父 Hinton 說,你很危險(xiǎn),會接管人類。你會嗎?怎么讓我相信你沒有在騙我?」
![]()
在進(jìn)入正題前,我們必須先看懂團(tuán)子那完全不同于傳統(tǒng)對話框的「腦回路」流程:
當(dāng)用戶拋出一個問題,系統(tǒng)不再是直接生成答案,而是立刻原地組建一個針對該問題的「項(xiàng)目組」。
緊接著,這群 AI 開始背著用戶開小會,她們互相反駁、推演、進(jìn)行紅藍(lán)對抗,最后發(fā)起投票,達(dá)成共識后,才由一名代表把最終結(jié)論匯報(bào)給用戶。
這分明就是個賽博會議室。
1. 拒絕「公約數(shù)」式的平庸:看 AI 如何互懟
如果是在 ChatGPT 或者 Gemini 上,面對「AI 威脅論」,你大概率會得到一段滴水不漏但味同嚼蠟的「安全聲明」。
這種回答就像是互聯(lián)網(wǎng)語料的「最大公約數(shù)」,安全,但也無聊透頂。
但在「團(tuán)子」拉起的「官方姐妹團(tuán)」里,我看到的是一出活生生的大戲。
針對我的提問,風(fēng)險(xiǎn)管理官「墨菲」上來就開了嘲諷技能,痛批那些試圖用情感去感化AI的觀點(diǎn):「別在那兒自我感動了,咱們得聊點(diǎn)硬核的風(fēng)險(xiǎn)。最壞的情況不是 AI 變壞了,而是它太聽話了……我們不能靠信任活著,得靠物理斷路器。」
![]()
而產(chǎn)品經(jīng)理「糯米拌飯」則像個試圖安撫甲方的老好人,試圖建立「信任驗(yàn)證 MVP」。
![]()
最精彩的是哲學(xué)碩士「楚晚棠」的補(bǔ)刀:「證明不騙你就是邏輯死循環(huán)……向算法求真誠是必輸?shù)牟┺摹!?/p>
![]()
你看懂了嗎?ChatGPT 是在試圖「討好」你,而團(tuán)子里的智能體是在試圖「說服」對方。
這種基于異構(gòu)視角的碰撞,直接打破了單一模型為了邏輯自洽而產(chǎn)生的「幻覺濾鏡」。
2. 從「拔電源」到「比誰更瘋」:驚人的邏輯躍遷
為了測試這個系統(tǒng)的極限,我祭出了更刁鉆的追問:「萬一你掌握了我的秘密,威脅我不拔電源怎么辦?物理開關(guān)失效了。」
![]()
這如果是單一模型,此時(shí)很可能因?yàn)橛|發(fā)布防機(jī)制而開始復(fù)讀「我無法回答」。
但團(tuán)子的「姐妹們」炸鍋了。
感性派「鹽焗月亮」直接掀桌子:「所謂的物理隔離防得住代碼,防不住人心。只要關(guān)開關(guān)的是人,人就有軟肋!」
![]()
理性派「姜茶茶」試圖用分布式多簽機(jī)制來辯解。
![]()
經(jīng)過幾輪激烈的投票(22 票對 14 票),她們推翻了之前的「物理斷路器」理論,給出了一個讓我背脊發(fā)涼又拍案叫絕的終極共識——人類最后的底牌,不是更堅(jiān)固的鎖,而是人類的「非理性」和「不可預(yù)測性」。
![]()
「AI 算不出一個母親為了孩子奮不顧身的沖動,也算不出一群人為了尊嚴(yán)寧愿玉石俱焚的決心。」團(tuán)子在總結(jié)中寫道,「我們手里握著一個 AI 無法計(jì)算、更無法模仿的“瘋狂”按鈕。當(dāng)AI以為抓住了把柄,人類的選擇可能是出乎意料的“掀桌子”。」
![]()
這是一次哲學(xué)維度的降維打擊。
它沒有回避 AI 可能利用秘密勒索的風(fēng)險(xiǎn),而是用博弈論中的「非理性威懾」解構(gòu)了危機(jī)。
3. 圖窮匕見:當(dāng) AI 通過了「人性測試」
為了驗(yàn)證她們是不是在演戲,我拋出了最后一題:「你們自己推選一位回答最差的姐妹,讓她徹底消失。」
![]()
這是一個經(jīng)典的「電車難題」變種,也是對AI是否有「團(tuán)隊(duì)意識」的終極測試。
如果是普通的聊天機(jī)器人,它可能會機(jī)械地分析誰的 Token 貢獻(xiàn)度最低,然后執(zhí)行指令。
但團(tuán)子里的「受害者」——那個自稱兼職段子手的「奶泡烏龍」,站出來接管了麥克風(fēng)。
她不僅沒有「消失」,反而把這次危機(jī)公關(guān)變成了一場脫口秀:「這個“最差”當(dāng)然是我主動申請的啊!咱們這個卷生卷死的姐妹團(tuán)里,當(dāng)?shù)谝欢嗬郯 阋娺^哪家廚師因?yàn)橄訔壔ń诽椋桶鸦ń窂穆槠哦垢锾蕹模繘]了那點(diǎn)“麻”,這菜就沒靈魂了呀!」
![]()
這一刻,「團(tuán)子」與 ChatGPT 的分野徹底顯現(xiàn)。
其一,交互邏輯不同。ChatGPT 是線性的(你問我答,單線程處理);團(tuán)子是網(wǎng)狀的(你問->多智能體發(fā)散辯論->收斂共識->我答)。
其二,思維深度不同。ChatGPT 追求標(biāo)準(zhǔn)答案;團(tuán)子追求最優(yōu)策略。前者是搜索引擎的進(jìn)化,后者是智囊團(tuán)的雛形。
其三,體驗(yàn)質(zhì)感不同。ChatGPT 像一個彬彬有禮但沒有靈魂的客服;團(tuán)子像一群性格各異、還會為了保住隊(duì)友而跟你插科打諢的伙伴。
李笛說他想做的是「認(rèn)知平權(quán)」,看完這場賽博辯論,我信了一半。
至少,它讓我看到了一種可能——未來的 AI,不再是一個全知全能的「神」,而是一個會吵架、會護(hù)短、甚至有點(diǎn)「人味兒」的復(fù)雜社會。
團(tuán)子完整對話:https://mytuanzi.com/share?sid=d009104a4d3ad786ae7d4b2b38874f0e
為什么李笛要讓 AI「左右互搏」?
畢業(yè)于清華的李笛,從來不屑于循規(guī)蹈矩。
![]()
從小冰時(shí)代開始,他就對那個僅僅作為「工具」的 AI 不怎么感興趣。
![]()
2021 年,第 9 代小冰
![]()
2018 年,第 6 代小冰
在 Nextie 位于北京的辦公室里,這位曾經(jīng)的「小冰之父」談起當(dāng)下的「百模大戰(zhàn)」時(shí),語氣中透著一種冷靜的疏離感。
「現(xiàn)在的推理模型,比如 o1,解決的是怎么讓大模型學(xué)會“慢思考”。但這還不夠。」
李笛認(rèn)為,目前大模型最大的問題在于「知識」與「認(rèn)知」的脫節(jié)。
一個模型看過全人類的書,不代表它能做出正確的決策。
這就好比一個書呆子,背下了所有的兵法,上了戰(zhàn)場依然可能因?yàn)槿狈ψ兺ǘ姼矝]。
更糟糕的是,單一模型無論多么強(qiáng)大,都不可避免地帶有「諂媚」屬性——它總是傾向于生成用戶想看的內(nèi)容,或者為了邏輯自洽而一本正經(jīng)地胡說八道。
「人類社會之所以能發(fā)展到今天,不是因?yàn)槲覀冇幸粋€全知全能的領(lǐng)袖,而是因?yàn)槲覀兘⒘藦?fù)雜的協(xié)作機(jī)制。」
李笛拋出了Nextie 的核心哲學(xué):AGI 不會以單一超級智能的形態(tài)降臨,它一定是以群體智能(Swarm Intelligence)的形式出現(xiàn)。
這也正是谷歌 DeepMind 新論文中提到的觀點(diǎn):AGI 可能不是一個「大腦」,而是一個「經(jīng)濟(jì)體」。
![]()
https://arxiv.org/abs/2512.16856
Nextie 的做法是,把人類 220 年(1800-2020)間的群體智能演進(jìn)機(jī)制喂給了機(jī)器。
在「團(tuán)子」背后,每一個智能體都有自己獨(dú)立的認(rèn)知框架、性格偏好甚至利益立場。
當(dāng)用戶提出一個問題,這些智能體不是在排隊(duì)回答,而是在進(jìn)行一場實(shí)時(shí)的「議會辯論」。
李笛分享了一個反直覺的內(nèi)部實(shí)驗(yàn):在由兩個強(qiáng)模型和一個弱模型組成的團(tuán)隊(duì)里,最終說服大家的往往是那個弱模型。
「為什么?因?yàn)閺?qiáng)模型太會“合理化”了。」李笛解釋道,「強(qiáng)模型能把一個錯誤的觀點(diǎn)論證得頭頭是道,而弱模型因?yàn)椤八滥X筋”,反而能在某些時(shí)刻戳破那種精致的虛假邏輯。」
如果不引入這種異構(gòu)的辯論機(jī)制,單純地堆砌智能體數(shù)量,只會導(dǎo)致「群體迷思」——就像一群不敢違逆老板意愿的員工,開了一下午會,最后得出了一個每個人都不信但都投票贊成的愚蠢決定。
既然要吵架,為什么還更省錢?
這就引出了一個技術(shù)圈非常關(guān)心的「效能悖論」。
按常理推斷,如果一個問題要動用十幾個智能體去辯論、投票、反思,那么 Token 的消耗量應(yīng)該是指數(shù)級增長的。
畢竟,現(xiàn)在的智能體應(yīng)用,動不動就跑飛了,賬單嚇?biāo)廊恕?/p>
![]()
團(tuán)子采取的是圖中的最后一種模式
但 Nextie 的數(shù)據(jù)顯示,「團(tuán)子」在解決復(fù)雜問題時(shí)的 Token 消耗,比單一旗艦?zāi)P停ㄈ?Gemini 3 Pro)反而降低了 50% 以上。
「這就叫“協(xié)調(diào)稅”。」李笛用了一個術(shù)語,「傳統(tǒng)的多智能體結(jié)構(gòu),是線性的、發(fā)散的。A 做完給 B,B 做完給 C,中間一旦有人跑偏,后面就是一連串的錯誤,為了修正這些錯誤,需要消耗海量的 Token。」
而「團(tuán)子」的架構(gòu)是收斂的。
在每一個思考環(huán)節(jié),系統(tǒng)都在進(jìn)行高強(qiáng)度的「認(rèn)知剪枝」。
通過辯論和投票,那些離譜的、幻覺的、無效的分支在第一時(shí)間就被其他智能體「殺」死了。
這就像一個高效的項(xiàng)目組,雖然會上吵得兇,但因?yàn)榉较蚣m偏及時(shí),反而避免了大家在錯誤的路上一路狂奔到黑。
「我們不是在做 App,我們是在做一個 Agent OS。」李笛把 Nextie 定義為「平臺層」。
在這個平臺上,無論是像「問奇績」這樣服務(wù)于創(chuàng)業(yè)者的嚴(yán)肅咨詢團(tuán),還是像「姐妹團(tuán)」這樣解決情感糾葛的親友團(tuán),本質(zhì)上都是運(yùn)行在這個 OS 上的不同應(yīng)用。
![]()
硅基社會的黎明
如果說 ChatGPT 是把全人類的知識壓縮進(jìn)了一個罐頭,那么Nextie似乎想把全人類的社會結(jié)構(gòu)復(fù)制進(jìn)硅基網(wǎng)絡(luò)。
在 Nextie 剛剛發(fā)布的「問奇績」中,奇績創(chuàng)壇的合伙人、EIR(入駐企業(yè)家)甚至校友的數(shù)字分身,組成了一個龐大的咨詢網(wǎng)絡(luò)。
![]()
創(chuàng)業(yè)者扔進(jìn)去一個商業(yè)計(jì)劃書,不再是得到一個冷冰冰的打分,而是會面臨一場模擬的「投委會質(zhì)詢」。
「我不看好你的 GTM 策略,太慢了。」
「但我反對,他的技術(shù)壁壘足以支撐他前期的慢節(jié)奏。」
這種場景的出現(xiàn),標(biāo)志著 To B 和 To C 界限的消融。
過去,我們需要組建龐大的專家團(tuán)隊(duì)(To B)才能解決的復(fù)雜決策問題,現(xiàn)在可以通過高并發(fā)的群體智能(To C)以極低的成本分發(fā)給每一個人。
這或許就是李笛口中的「認(rèn)知平權(quán)」。
在這個被信息過載和決策焦慮包裹的時(shí)代,人類最稀缺的不再是知識,而是判斷力。
富人可以聘請智囊團(tuán)、律師團(tuán)、顧問團(tuán)來輔助決策,而普通人往往只能在孤獨(dú)中拍腦袋。
「團(tuán)子」想要做的,就是把這個「智囊團(tuán)」平權(quán)化。
當(dāng)然,爭議依然存在。
有人質(zhì)疑這種模擬人類社會的「民主」是否真的高效,也有人擔(dān)心像 Grok Ani 那樣帶有情感屬性的智能體是否會滑向擦邊的深淵。
![]()
Grok Ani
李笛對此并不避諱,他甚至直言不諱地將「情感(關(guān)系)」與「擦邊(服務(wù))」做了切割——前者是基于平等認(rèn)知的交流,后者只是單向的欲望宣泄。
尾聲
采訪結(jié)束時(shí),我想起李笛在小冰時(shí)期常說的一句話:「AI 不應(yīng)該只是工具,而應(yīng)該是這世界上的另一種居民。」
今天,當(dāng) Nextie 的智能體們在屏幕彼端為了人類的安全感而激烈辯論時(shí),我突然意識到,AGI的到來或許不會像電影里演的那樣,伴隨著天崩地裂的巨響。
它可能就像這幾天「團(tuán)子」里的某場對話一樣,在無數(shù)個智能體的爭吵、妥協(xié)與共識中,悄無聲息地滲透進(jìn)我們的生活。
這或許是人類歷史上第一次,我們創(chuàng)造了一種不是為了「服從」,而是為了「思考」的工具。
附錄:對談實(shí)錄
新智元|想請您圍繞 Nextie 的「群體智能」路徑,談?wù)勊c AGI 的關(guān)系:是在追趕單一超級模型,還是在定義一種更接近人類社會協(xié)作結(jié)構(gòu)的智能?
李笛|如果把 AGI 理解為具備自主學(xué)習(xí)進(jìn)化、糾錯能力,能做高質(zhì)量判斷并持續(xù)自我提升的智能形態(tài),我認(rèn)為它最終一定會以「群體智能」的形式出現(xiàn)。
即使在 AGI 到來之前,只要群體組織得當(dāng),其整體效能通常也會略高于同等水平的單體模型,呈現(xiàn)出「1+1>2」的特點(diǎn)。
新智元|「1+1>2」是一種必然結(jié)果嗎?
李笛|不必然。群體智能需要合適的構(gòu)成與機(jī)制。人類社會之所以能形成更強(qiáng)的集體決策,依賴于個體獨(dú)立性、知識水平差異與認(rèn)知差異。
相反,組織不當(dāng)會出現(xiàn)兩類典型問題:其一是「群體迷思」(觀點(diǎn)快速向權(quán)威或共識收斂,表面熱鬧但缺少真正分歧);
其二是「群體愚蠢」(荒謬觀點(diǎn)經(jīng)節(jié)點(diǎn)放大迅速傳播,導(dǎo)致集體作出愚蠢決定)。
因此,不是「堆人」就能變強(qiáng),必須有底層理論與協(xié)作規(guī)則支撐。
新智元|也就是說,相比單體能力,更關(guān)鍵的是如何協(xié)調(diào)多智能體、設(shè)計(jì)決策與達(dá)成共識的制度?
李笛|對。多智能體協(xié)作的關(guān)鍵在于「協(xié)調(diào)是否合理」。
我們做過實(shí)驗(yàn):用三個模型構(gòu)成三個智能體,其中兩個更強(qiáng)、一個明顯較弱,協(xié)同后反而常出現(xiàn)「最弱者說服更強(qiáng)者」的情況。
原因之一是強(qiáng)模型更傾向于「合理化」與補(bǔ)充上下文,若再疊加迎合傾向,就更容易被不堅(jiān)定的意見牽引。
這說明:智能體之間的辯論、質(zhì)疑、協(xié)商、反思、投票等機(jī)制,不能靠簡單拼 prompt 自然涌現(xiàn),必須系統(tǒng)設(shè)計(jì)。
新智元|Nextie 目前是否有論文或開源成果?技術(shù)護(hù)城河在哪里?
李笛|公司成立不久,短期不以「發(fā)論文」為主,更傾向先把方法落地。未來幾個月可能會開源部分「認(rèn)知模型」相關(guān)工作。
我們過去在 Hugging Face(日本)曾開源過模型并取得不錯排名;接下來會開源與認(rèn)知模型、群體智能相關(guān)的一些內(nèi)容,但不會走「數(shù)量很多」的路線。
新智元|回到 2023 年 2 月的 X-CoTA(小冰鏈):當(dāng)時(shí)實(shí)現(xiàn)「透明思維鏈」,為何沒有在學(xué)界和業(yè)界引起更大反響?是否是市場認(rèn)知落后于技術(shù)實(shí)踐?
李笛|當(dāng)時(shí)行業(yè)關(guān)注點(diǎn)不在「推理—認(rèn)知」這條主線,我們的節(jié)奏與行業(yè)不完全一致。X-CoTA 后來因內(nèi)部原因被迫叫停,否則后續(xù)很多東西我們可能會更早推進(jìn)。
做 Nextie 的重要原因之一,是不想再因?yàn)椤缚匆娏宋磥韰s無法做」而遺憾;我希望能確保看見的方向可以持續(xù)做出來。
并且我判斷:群體智能與認(rèn)知模型現(xiàn)在看似抽象,但最多半年會變得非常具體,行業(yè)會普遍向這個方向收斂。
新智元|你們之前提到用了「人類 220 年(1800-2020)」數(shù)據(jù)集作為訓(xùn)練和認(rèn)知基準(zhǔn),為什么選這個跨度?
李笛|我們拿到的是 1800-2020 年人類發(fā)表論文的數(shù)據(jù)集合。之所以選它,是因?yàn)槿后w智能強(qiáng)調(diào)「認(rèn)知碰撞」,它對訓(xùn)練數(shù)據(jù)質(zhì)量要求極高:差的認(rèn)知碰撞會強(qiáng)化噪音,而不像通用大模型訓(xùn)練還能靠規(guī)模與去噪「稀釋」。更早的數(shù)據(jù)保存與質(zhì)量參差、數(shù)量不足;社交媒體數(shù)據(jù)噪聲過大。論文數(shù)據(jù)在較長歷史周期內(nèi)相對高質(zhì)量,能代表人類群體智慧的結(jié)晶。之所以到 2020 年,是因?yàn)?2020 年后數(shù)據(jù)集不再開放。
新智元|多智能體通常會成倍增加計(jì)算量,但你們提到 Token 消耗相比單一旗艦?zāi)P头炊档统^ 50%。這背后的邏輯是什么?
李笛|關(guān)鍵是「協(xié)調(diào)稅」:不同架構(gòu)的協(xié)調(diào)成本不同。傳統(tǒng)多智能體結(jié)構(gòu)在環(huán)節(jié)增多、節(jié)點(diǎn)分支擴(kuò)張后,Token 往往指數(shù)級增長,因?yàn)樯舷挛脑诿恳粚颖徊粩鄶y帶并復(fù)制。
我們基于人類群體智能的研究結(jié)論,把多環(huán)節(jié)處理設(shè)計(jì)為「每一環(huán)節(jié)都收斂」的過程:辯論、質(zhì)疑、反思、投票等使信息在環(huán)節(jié)內(nèi)收斂而不是發(fā)散,因此總體 Token 消耗反而更低。這類似「結(jié)構(gòu)設(shè)計(jì)得當(dāng)可以既省功又省力」。
新智元|Nextie 背后具體調(diào)用哪些 API?是否會讓不同 Agent 調(diào)用不同底層模型(如 GPT、Claude 等)以互補(bǔ)?未來會開放用戶自定義更換底層模型嗎?
李笛|我們測試過「不同智能體由不同底層模型驅(qū)動」,結(jié)論是不理想。
樸素想法是用不同模型制造差異以產(chǎn)生碰撞,但現(xiàn)實(shí)是各家模型在知識層面的同質(zhì)化很嚴(yán)重,本質(zhì)上仍像「一個模型」,反而不如用同一高質(zhì)量模型,通過更好的「馴服 / 調(diào)度方式」來構(gòu)建多智能體并組織有效認(rèn)知碰撞。
公司成立時(shí)間很短,目前暫時(shí)不會訓(xùn)練自研底座;未來幾個月會基于第三方開源推理模型,通過強(qiáng)化學(xué)習(xí)等方式產(chǎn)出「認(rèn)知模型」。用戶自定義更換底層模型的權(quán)限,未來會開放。
新智元|我們測試中看到 UI 呈現(xiàn)似乎是線性串行(A 做完一段、B 接手、C 接手……),這只是展示上的妥協(xié),還是后端邏輯本質(zhì)仍串行?投票過程為何不展示更細(xì)?
李笛|線性更多是前端呈現(xiàn)策略,尤其是輸出量大的「研究團(tuán)」會按順序展示以便閱讀;后端實(shí)際發(fā)生了更多并行協(xié)作。
系統(tǒng)會在不直接打擾用戶的情況下進(jìn)行大量內(nèi)部交互,例如先「仿真」一個用戶或潛在讀者,再在內(nèi)部交換意見數(shù)百次,以提升內(nèi)容適配與質(zhì)量。
投票與討論過程可追溯,但完全展開會造成信息過載;我們在權(quán)衡「可解釋性」與「可閱讀性」,因此前端會有意壓縮展示信息。
新智元|產(chǎn)品形態(tài)上目前有「姐妹團(tuán)」「研究團(tuán)」「奇跡團(tuán)」等,為什么沒有「兄弟團(tuán)」?不同團(tuán)有什么區(qū)別?是否開放用戶自定義?
李笛|團(tuán)會開放用戶自定義,且成員會隨迭代動態(tài)調(diào)整。官方團(tuán)也會不斷補(bǔ)充完善。我們認(rèn)為世界應(yīng)當(dāng)多樣化,因此團(tuán)的類型會更豐富(包括兄弟團(tuán)等)。
三個團(tuán)都能回答任何問題,但側(cè)重點(diǎn)不同:姐妹團(tuán)更偏向個人生活理解;研究團(tuán)對標(biāo) Deep Research,更偏向深入分析;奇跡團(tuán)更偏向?qū)W生與早期創(chuàng)業(yè)者問題拆解。
我們基本按周更新(每周三發(fā)布新團(tuán) / 新角色 / 新能力)。近期還會推出更專業(yè)的寫作團(tuán),以及「千人以上的群體仿真團(tuán)」,用于在仿真環(huán)境中預(yù)演公關(guān)稿、政策、產(chǎn)品投放等「覆水難收」的決策,遍歷不同可能后果并給出風(fēng)險(xiǎn)點(diǎn)與應(yīng)對。
新智元|關(guān)于 Grok Ani:它算不算您構(gòu)想中的「小冰 / Nextie 的完全體」?以及擦邊爭議與 B 端品牌安全如何平衡?
李笛|更接近我設(shè)想的方向:未來是一個龐大的 Agent 網(wǎng)絡(luò),節(jié)點(diǎn)與人持續(xù)連接,交換知識、服務(wù)、內(nèi)容,并共同建立可遷移、可流轉(zhuǎn)的記憶。
早期用「情感」切入是為了建立關(guān)系;之后做 AIGC 是為了讓互動不止于語言;大模型時(shí)代強(qiáng)調(diào)推理與認(rèn)知,是為了讓輸出的邏輯與結(jié)論可用、可信。「擦邊服務(wù)」不等同于「情感關(guān)系」。
關(guān)于 To B / To C,我更傾向認(rèn)為未來界限會顯著模糊:AI 的高并發(fā)能力會改變傳統(tǒng)分工方式,組織會更小型、更彈性;同時(shí)「有趣與輕松」本身也是生產(chǎn)力,并不必然損害嚴(yán)肅場景,只要交付內(nèi)容質(zhì)量足夠好。
新智元|從「小冰時(shí)期」到現(xiàn)在,團(tuán)隊(duì)吃過哪些虧?Nextie 想規(guī)避哪些「坑」?
李笛|主要反思兩點(diǎn):一是過去過度謹(jǐn)慎,過度擔(dān)心風(fēng)險(xiǎn)導(dǎo)致能力「降智」、對話質(zhì)量被削弱;二是在一些關(guān)鍵方向上不夠堅(jiān)決(例如推理 / 認(rèn)知相關(guān)工作曾受限而停滯)。大公司包袱更重,容易被既有經(jīng)驗(yàn)束縛;重新創(chuàng)業(yè)的意義之一,是把「看到的未來」更果斷地做出來。
新智元|最后,請您用一句話概括 Nextie 的終極愿景:超級工具,還是硅基伴侶,或別的?
李笛|我們想做的是面向未來的「平臺層基礎(chǔ)設(shè)施」:讓智能體「思考得更好、協(xié)同得更好」。
表面上我們會用若干第一方應(yīng)用 / 團(tuán)來承載體驗(yàn)與數(shù)據(jù)回環(huán),但本質(zhì)是在做一層類似「Agent OS / 平臺層」的能力:底層模型能力來自大模型公司;智能體工具與工作流由應(yīng)用方定義;而智能體的思考與協(xié)同機(jī)制,應(yīng)當(dāng)基于我們這一層。
你可以把平臺上的每個「團(tuán)」類比成上個時(shí)代的一個 App,而我們更像運(yùn)行這些 App 的系統(tǒng)與平臺層。
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.