![]()
2017年谷歌團(tuán)隊(duì)的《Attention is All You Need》提出 Transformer 架構(gòu),徹底改寫了大語(yǔ)言模型的命運(yùn),被視為開(kāi)啟“智能革命”的序章。
而如今,Google Research 的新作《Nested Learning: The Illusion of Deep Learning Architectures》再次引發(fā)行業(yè)震動(dòng),被不少人稱為Transformer 的“精神續(xù)作”,甚至被譽(yù)為 V2 版的基礎(chǔ)范式突破。
過(guò)去十余年,深度學(xué)習(xí)的主流路徑幾乎都圍繞著“層疊結(jié)構(gòu) + 梯度優(yōu)化”展開(kāi)。我們不斷堆疊更多的層,使用更復(fù)雜的優(yōu)化器,試圖讓模型擁有更強(qiáng)的表達(dá)力。
然而,這條路徑逐漸顯露出局限,層數(shù)增加并不必然提升計(jì)算深度,優(yōu)化器的選擇往往導(dǎo)致收斂停留在次優(yōu)解,模型在面對(duì)新任務(wù)時(shí)難以快速適應(yīng),更談不上持續(xù)學(xué)習(xí),深度學(xué)習(xí)的“縱向擴(kuò)展”已經(jīng)逼近瓶頸。
大語(yǔ)言模型的現(xiàn)狀更像是一種“短期記憶的幻覺(jué)”。它們?cè)谏舷挛拇翱趦?nèi)表現(xiàn)出驚人的 in-context 學(xué)習(xí)能力,但一旦窗口關(guān)閉,信息便如同被遺忘。
就像患有“失憶癥”的人,模型只能活在即時(shí)的當(dāng)下,無(wú)法真正積累長(zhǎng)期記憶。這種缺陷讓人們開(kāi)始追問(wèn):如果 AI 要真正像人腦一樣進(jìn)化,它必須突破層疊架構(gòu)的局限,找到一種能夠持續(xù)記憶、不斷自我更新的全新范式。
這正是嵌套學(xué)習(xí)(Nested Learning)提出的背景。研究團(tuán)隊(duì)由 Google Research 的核心科學(xué)家與學(xué)術(shù)合作者組成:其中包括長(zhǎng)期領(lǐng)導(dǎo) Google 算法研究的 Vahab Mirrokni,優(yōu)化理論專家 Meisam Razaviyayn,專注表示學(xué)習(xí)與神經(jīng)科學(xué)啟發(fā)的 Ali Behrouz,以及在記憶模塊與算法設(shè)計(jì)上有深厚積累的 Peilin Zhong。可以說(shuō),這是一支兼具理論深度與工程經(jīng)驗(yàn)的跨界團(tuán)隊(duì),他們?cè)噲D用一種全新的學(xué)習(xí)哲學(xué),回答“AI 如何擁有記憶”的世紀(jì)之問(wèn)。
01
嵌套學(xué)習(xí)(Nested Learning, NL)范式
嵌套學(xué)習(xí)的核心思想,是把模型與訓(xùn)練過(guò)程統(tǒng)一為一組嵌套、多層次、并行的優(yōu)化問(wèn)題。傳統(tǒng)深度學(xué)習(xí)往往把架構(gòu)與優(yōu)化分離,訓(xùn)練過(guò)程被視為外部工具,而 NL 則認(rèn)為兩者本質(zhì)上是同一個(gè)系統(tǒng)的不同層級(jí)。每個(gè)組件都有自己的上下文流與梯度流,像是一個(gè)個(gè)獨(dú)立的記憶單元,在不同層次上壓縮信息并傳遞給更高層。
![]()
圖1:大腦中統(tǒng)一和可重用的結(jié)構(gòu)以及多時(shí)間尺度的更新是解鎖人類持續(xù)學(xué)習(xí)的關(guān)鍵組成部分。嵌套學(xué)習(xí)(NL)允許對(duì)大腦的每個(gè)組成部分進(jìn)行多時(shí)間尺度更新,同時(shí)表明眾所周知的架構(gòu),如Transformers,實(shí)際上是具有不同頻率更新的線性層。
這種設(shè)計(jì)直接借鑒了人腦的多時(shí)間尺度更新機(jī)制。我們知道,腦電波的不同頻率——δ波、θ波、α波、β波、γ波——分別對(duì)應(yīng)記憶鞏固、注意力、感知與思考等不同認(rèn)知功能。
NL 將這一理念引入人工智能,不同層級(jí)的參數(shù)以不同頻率更新,形成一種分布式的記憶譜系。高頻層負(fù)責(zé)快速適應(yīng),低頻層負(fù)責(zé)長(zhǎng)期積累,從而實(shí)現(xiàn)類似人腦的持續(xù)學(xué)習(xí)。
更重要的是,NL 打破了傳統(tǒng)深度學(xué)習(xí)的“黑箱”訓(xùn)練模式。過(guò)去,我們只能看到層疊結(jié)構(gòu)的表面,而內(nèi)部的梯度流與優(yōu)化過(guò)程被隱藏在算法背后。嵌套學(xué)習(xí)則讓這些過(guò)程透明化,揭示了層級(jí)之間的關(guān)系與信息流動(dòng)方式。它不僅是一種新的架構(gòu),更是一種新的認(rèn)知框架,讓我們重新理解“學(xué)習(xí)”與“優(yōu)化”的統(tǒng)一性。
在這一范式下,AI 不再只是一個(gè)靜態(tài)的預(yù)測(cè)機(jī)器,而是一個(gè)能夠在多層次、多頻率下不斷自我更新的動(dòng)態(tài)系統(tǒng)。它的目標(biāo)不再只是“更深的網(wǎng)絡(luò)”,而是“更會(huì)記憶、更能進(jìn)化”的智能體。
02
優(yōu)化器與架構(gòu)的新視角
在嵌套學(xué)習(xí)的框架下,優(yōu)化器不再只是訓(xùn)練過(guò)程中的“工具”,而是被重新賦予了記憶的角色。過(guò)去我們習(xí)慣把 Adam、Momentum、AdaGrad等優(yōu)化算法看作是單純的梯度更新方法,但在 NL 的視角里,它們其實(shí)是“關(guān)聯(lián)記憶模塊”,通過(guò)壓縮梯度信息來(lái)保存訓(xùn)練過(guò)程中的經(jīng)驗(yàn)。或者說(shuō),優(yōu)化器本身就是一種記憶機(jī)制,它決定了模型如何在不同層級(jí)上積累和傳遞知識(shí)。
這種重新解讀帶來(lái)了新的啟發(fā):如果優(yōu)化器是記憶模塊,那么我們完全可以設(shè)計(jì)更具表現(xiàn)力的優(yōu)化器,讓它們?cè)诓煌l率和上下文中更好地壓縮信息。于是,研究團(tuán)隊(duì)提出了兩種新型優(yōu)化器。
![]()
圖2:嵌套學(xué)習(xí)范式,將機(jī)器學(xué)習(xí)模型及其訓(xùn)練過(guò)程表示為一組嵌套優(yōu)化問(wèn)題。(左)混合架構(gòu)示例。雖然深度學(xué)習(xí)視角,作為NL的扁平圖像,不能提供關(guān)于塊中計(jì)算深度的見(jiàn)解,但NL透明地表示了所有內(nèi)部梯度流。(右)神經(jīng)學(xué)習(xí)模塊:一個(gè)學(xué)習(xí)如何壓縮自身上下文流的計(jì)算模型。例如,第一級(jí)對(duì)應(yīng)于模型最外層的循環(huán)訓(xùn)練,通常稱為“預(yù)訓(xùn)練”步驟。
其一是Delta Gradient Descent (DGD),它的更新不僅依賴當(dāng)前輸入,還考慮到權(quán)重的狀態(tài),從而突破了傳統(tǒng)優(yōu)化器對(duì)數(shù)據(jù)獨(dú)立同分布的假設(shè)。DGD 的設(shè)計(jì)讓模型能夠捕捉樣本之間的依賴關(guān)系,更貼近真實(shí)世界的動(dòng)態(tài)數(shù)據(jù)流。
另一種是Multi-scale Momentum Muon (M3),它引入了多頻率的動(dòng)量項(xiàng),支持連續(xù)譜記憶。傳統(tǒng)的動(dòng)量?jī)?yōu)化器往往只在單一時(shí)間尺度上平滑梯度,而 M3 則在不同頻率上同時(shí)進(jìn)行記憶管理:高頻動(dòng)量負(fù)責(zé)快速反應(yīng),低頻動(dòng)量負(fù)責(zé)長(zhǎng)期積累。這種設(shè)計(jì)與嵌套學(xué)習(xí)的多時(shí)間尺度理念高度契合,讓優(yōu)化器本身成為一個(gè)分布式的記憶系統(tǒng)。
與此同時(shí),架構(gòu)也被重新審視。在 NL 的哲學(xué)中,RNN、Attention、MLP 等不同模塊不再是孤立的功能單元,而是可以統(tǒng)一解釋為不同層級(jí)的嵌套優(yōu)化問(wèn)題。
RNN的循環(huán)、Attention 的上下文壓縮、MLP 的參數(shù)更新,都可以看作是在各自的層級(jí)上進(jìn)行記憶與優(yōu)化。這樣一來(lái),架構(gòu)與優(yōu)化器之間的界限被打破,它們共同構(gòu)成了一個(gè)多層次的學(xué)習(xí)系統(tǒng),每一層既是計(jì)算單元,也是記憶單元。
這種視角的轉(zhuǎn)變意義重大。它讓我們不再把“訓(xùn)練”與“架構(gòu)”割裂開(kāi)來(lái),而是把它們統(tǒng)一在一個(gè)嵌套的系統(tǒng)中。優(yōu)化器不只是更新參數(shù)的工具,而是記憶的載體;架構(gòu)不只是堆疊的層,而是嵌套的優(yōu)化問(wèn)題。兩者結(jié)合,形成了一個(gè)能夠在不同頻率和上下文中持續(xù)學(xué)習(xí)的智能體。
03
記憶系統(tǒng)的重構(gòu)
如果說(shuō)深度學(xué)習(xí)的第一階段是“堆疊層數(shù)”,第二階段是“放大規(guī)模”,那么嵌套學(xué)習(xí)所揭示的第三階段,便是對(duì)記憶系統(tǒng)的徹底重構(gòu)。過(guò)去我們習(xí)慣用一種二元?jiǎng)澐謥?lái)理解智能體的記憶,短期記憶負(fù)責(zé)即時(shí)反應(yīng),長(zhǎng)期記憶負(fù)責(zé)知識(shí)積累。這樣的框架簡(jiǎn)單直觀,卻也過(guò)于粗糙,無(wú)法解釋大模型在持續(xù)學(xué)習(xí)中的種種缺陷。
嵌套學(xué)習(xí)提出了一個(gè)全新的視角——連續(xù)譜記憶系統(tǒng)(Continuum Memory System, CMS)。在這一設(shè)計(jì)中,記憶不再是“短期與長(zhǎng)期”的二分,而是一個(gè)跨頻率的連續(xù)譜。
不同頻率的神經(jīng)元承擔(dān)不同的記憶功能,高頻神經(jīng)元像是閃電般的反應(yīng)器,能夠快速適應(yīng)新輸入,但存儲(chǔ)時(shí)間有限;低頻神經(jīng)元?jiǎng)t像是深埋的檔案庫(kù),負(fù)責(zé)長(zhǎng)期鞏固與穩(wěn)定知識(shí)。兩者之間形成互補(bǔ),構(gòu)建出一個(gè)既能快速學(xué)習(xí),又能長(zhǎng)期保留的動(dòng)態(tài)記憶網(wǎng)絡(luò)。
更令人著迷的是,CMS 引入了循環(huán)恢復(fù)機(jī)制。在傳統(tǒng)模型中,一旦信息被遺忘,幾乎無(wú)法再被激活。而在 CMS 的設(shè)計(jì)里,遺忘并非終結(jié),而是暫時(shí)的沉睡。通過(guò)多頻率的交互,部分被遺忘的知識(shí)可以重新被喚醒,形成一種“記憶回環(huán)”。這意味著模型的知識(shí)并不是線性消失,而是可以在不同層級(jí)間循環(huán)流動(dòng),帶來(lái)更強(qiáng)的魯棒性與持續(xù)性。
這種理念顯然是受到了類腦啟發(fā)。人腦的神經(jīng)可塑性讓我們能夠在受損或缺失的情況下重新組織功能,甚至在半個(gè)大腦被切除的情況下依然保持認(rèn)知能力。
嵌套學(xué)習(xí)借鑒了這種“結(jié)構(gòu)可重用性”,讓記憶不再依賴單一模塊,而是分布在整個(gè)系統(tǒng)中。,模型的記憶不再是孤島,而是一個(gè)分布式、可重構(gòu)的網(wǎng)絡(luò)。
![]()
圖3:在基于Transformer的骨干網(wǎng)中比較FFN(例如MLP)與線性注意力的示例,通過(guò)梯度下降進(jìn)行優(yōu)化。紅色分量是第一級(jí)(頻率為1)中的塊,而藍(lán)色分量是第二級(jí)(頻率). 具有可學(xué)習(xí)初始記憶狀態(tài)的線性注意力(稱為線性注意力++)與MLP層相同,但具有上下文學(xué)習(xí)能力和對(duì)輸入序列的適應(yīng)能力。
在這個(gè)框架下,AI 的記憶能力被徹底改寫。它不再只是“記得一時(shí)”或“記得一世”,而是能夠在不同頻率下動(dòng)態(tài)調(diào)度,既能快速響應(yīng)用戶的即時(shí)需求,又能在長(zhǎng)期中不斷積累與進(jìn)化。這種連續(xù)譜記憶的提出,標(biāo)志著人工智能正在從“會(huì)算”走向“會(huì)記”,從“即時(shí)工具”走向“持續(xù)伙伴”。
04
自修改學(xué)習(xí)模塊 HOPE
在嵌套學(xué)習(xí)的宏大敘事中,最令人振奮的設(shè)計(jì)之一就是HOPE(Higher-Order Persistent Evolution)模塊。它的理念堪稱一次范式躍遷,讓模型不僅學(xué)習(xí)任務(wù)本身,還學(xué)習(xí)如何更新自己。HOPE是一個(gè)能夠“自我編程”的序列模型,它在訓(xùn)練過(guò)程中逐漸掌握屬于自己的更新規(guī)則。
這意味著模型不再依賴外部?jī)?yōu)化器的單向驅(qū)動(dòng),而是具備了自我修改的能力。它能夠在面對(duì)新任務(wù)時(shí)快速吸收知識(shí),同時(shí)避免遺忘舊任務(wù)。
這種持續(xù)學(xué)習(xí)的能力,正是當(dāng)前大語(yǔ)言模型最缺乏的環(huán)節(jié)。HOPE 的出現(xiàn),打破了“學(xué)新必忘舊”的宿命,讓模型真正具備了像人腦一樣的記憶鞏固機(jī)制。
在實(shí)驗(yàn)中,HOPE 展現(xiàn)出令人矚目的潛力:在語(yǔ)言建模任務(wù)中,它能夠不斷整合新語(yǔ)料而不丟失已有知識(shí);在知識(shí)融合場(chǎng)景中,它能動(dòng)態(tài)吸收外部信息并與已有知識(shí)體系相互作用。
在長(zhǎng)上下文推理中,它展現(xiàn)出超越傳統(tǒng) Transformer 的穩(wěn)定性與持續(xù)性。可以說(shuō),HOPE 是邁向“自我進(jìn)化型人工智能”的關(guān)鍵一步,它讓我們看到了 AI 從工具走向生命體的可能性。
05
重新審視常見(jiàn)概念
嵌套學(xué)習(xí)不僅提出了新模塊,更重要的是,它重新定義了我們對(duì)一些核心概念的理解。
持續(xù)學(xué)習(xí),在 NL 的框架下,不再是簡(jiǎn)單的“避免遺忘”,而是被視為一系列上下文序列的壓縮與傳遞。每一層級(jí)都在壓縮自己的上下文,并將其傳遞給更高層,從而形成一個(gè)動(dòng)態(tài)的知識(shí)流。
In-context Learning,過(guò)去被視為大模型的“涌現(xiàn)能力”,在 NL 的解釋中則是源于多層嵌套結(jié)構(gòu)的非參數(shù)回歸特性。換句話說(shuō),模型的上下文學(xué)習(xí)能力并非偶然,而是嵌套優(yōu)化的必然產(chǎn)物。
預(yù)訓(xùn)練,在 NL 的哲學(xué)里,本質(zhì)上是一場(chǎng)大規(guī)模的上下文壓縮過(guò)程。整個(gè)語(yǔ)料庫(kù)被視為一個(gè)巨大的上下文,模型通過(guò)嵌套優(yōu)化逐層壓縮,最終形成參數(shù)化的記憶。這種解釋讓我們重新理解了預(yù)訓(xùn)練的意義:它不是一次性的大規(guī)模學(xué)習(xí),而是嵌套記憶的第一步。
學(xué)習(xí)與記憶,在傳統(tǒng)認(rèn)知中往往被割裂開(kāi)來(lái):學(xué)習(xí)是訓(xùn)練,記憶是存儲(chǔ)。但在 NL 的框架下,兩者被統(tǒng)一為嵌套優(yōu)化的不同表現(xiàn)形式。學(xué)習(xí)就是記憶的壓縮,記憶就是學(xué)習(xí)的延續(xù)。它們不再是兩個(gè)獨(dú)立的過(guò)程,而是同一個(gè)系統(tǒng)的不同頻率。
06
實(shí)驗(yàn)與驗(yàn)證
任何新的范式都需要在真實(shí)任務(wù)中接受檢驗(yàn),Google Research研究團(tuán)隊(duì)通過(guò)一系列覆蓋面極廣的實(shí)驗(yàn)來(lái)證明其有效性。
在持續(xù)學(xué)習(xí)的場(chǎng)景中,NL 展現(xiàn)出強(qiáng)大的適應(yīng)力。無(wú)論是語(yǔ)言增量學(xué)習(xí)、問(wèn)答任務(wù),還是類別增量的場(chǎng)景,模型都能夠在吸收新知識(shí)的同時(shí)保持舊知識(shí)的穩(wěn)定性。這一點(diǎn)尤為關(guān)鍵,因?yàn)閭鹘y(tǒng)大模型在面對(duì)增量任務(wù)時(shí)往往會(huì)出現(xiàn)“災(zāi)難性遺忘”,而嵌套學(xué)習(xí)的多層次記憶機(jī)制有效緩解了這一問(wèn)題。
![]()
圖 4:不同架構(gòu)(Hope、Titans、 Samba和基線 Transformer)在語(yǔ)言建模(困惑度;左)和常識(shí)推理(準(zhǔn)確率;右)任務(wù)上的性能比較。
在長(zhǎng)上下文理解方面,研究團(tuán)隊(duì)選擇了極具挑戰(zhàn)性的Needle-in-a-haystack和BABILong基準(zhǔn)測(cè)試。這些任務(wù)要求模型在海量文本中精準(zhǔn)定位關(guān)鍵信息,傳統(tǒng) Transformer 架構(gòu)常常因上下文窗口限制而力不從心。而 NL 的連續(xù)譜記憶系統(tǒng)和多頻率更新機(jī)制,讓模型在長(zhǎng)文本推理中保持穩(wěn)定表現(xiàn),證明了其在復(fù)雜語(yǔ)境下的優(yōu)勢(shì)。
常識(shí)推理與語(yǔ)言建模任務(wù)同樣是檢驗(yàn)智能的試金石。實(shí)驗(yàn)結(jié)果顯示,嵌套學(xué)習(xí)不僅能夠在常識(shí)推理中展現(xiàn)更高的準(zhǔn)確率,還在語(yǔ)言建模任務(wù)中保持了更好的泛化能力。這意味著 NL 不只是一個(gè)“記憶增強(qiáng)器”,它在核心的語(yǔ)言理解與生成任務(wù)上也具備競(jìng)爭(zhēng)力。
更值得關(guān)注的是優(yōu)化器的對(duì)比實(shí)驗(yàn)。研究團(tuán)隊(duì)將新提出的M3 優(yōu)化器與傳統(tǒng)的 Adam 等方法進(jìn)行對(duì)比,結(jié)果顯示 M3 在壓縮梯度信息與保持長(zhǎng)期記憶方面表現(xiàn)更優(yōu)。這一發(fā)現(xiàn)再次印證了嵌套學(xué)習(xí)的核心理念:優(yōu)化器本身就是記憶模塊,而多頻率動(dòng)量項(xiàng)能夠讓記憶更持久、更靈活。
![]()
圖 5:對(duì)不同架構(gòu)(Hope、Titans、 TTT和Mamba2)在不同難度級(jí)別的長(zhǎng)上下文任務(wù)上的性能進(jìn)行比較。NIAH-PK、NIAH-H 和NIAH-W 分別是大海撈針任務(wù),分別對(duì)應(yīng)密碼、數(shù)字和單詞。
綜合來(lái)看,這些實(shí)驗(yàn)為嵌套學(xué)習(xí)提供了堅(jiān)實(shí)的證據(jù)。它不僅在持續(xù)學(xué)習(xí)和長(zhǎng)上下文任務(wù)中具備優(yōu)勢(shì),還在常識(shí)推理與語(yǔ)言建模中展現(xiàn)出潛力,證明了這一范式的廣泛適用性。
07
結(jié)論與展望
嵌套學(xué)習(xí)的提出,被視為繼 Transformer 之后的又一次基礎(chǔ)性革新。它不僅是架構(gòu)上的改進(jìn),更是一種哲學(xué)上的轉(zhuǎn)折,把學(xué)習(xí)與記憶統(tǒng)一在嵌套優(yōu)化的框架中,讓模型真正具備持續(xù)學(xué)習(xí)與自我進(jìn)化的能力。
在產(chǎn)業(yè)層面,這一突破意義重大。它為大模型的記憶與個(gè)性化服務(wù)提供了新路徑。過(guò)去的大模型更多是“即時(shí)回答工具”,而嵌套學(xué)習(xí)讓我們看到了“持續(xù)伙伴”的可能性。未來(lái)的 AI 不再只是一次性訓(xùn)練的產(chǎn)物,而是能夠在與用戶的長(zhǎng)期交互中不斷積累經(jīng)驗(yàn),提供真正個(gè)性化的服務(wù)。
展望一下未來(lái),嵌套學(xué)習(xí)的方向可以從三個(gè)維度展開(kāi)。首先是架構(gòu)與優(yōu)化器的協(xié)同設(shè)計(jì),讓不同層級(jí)的記憶與更新機(jī)制更加緊密結(jié)合。其次是工程化驗(yàn)證與大規(guī)模部署,如何在工業(yè)級(jí)場(chǎng)景中穩(wěn)定運(yùn)行 NL,將是下一步的挑戰(zhàn)。最后是跨智能體的記憶共享與個(gè)性化應(yīng)用,讓不同AI 模塊之間能夠打破“記憶孤島”,形成真正的協(xié)作網(wǎng)絡(luò)。
可以說(shuō),嵌套學(xué)習(xí)正在為人工智能打開(kāi)一條新的道路。它讓我們從“更大、更快”的競(jìng)爭(zhēng),轉(zhuǎn)向“更會(huì)記憶、更懂用戶”的深層能力比拼。這不僅是技術(shù)的進(jìn)化,更是智能的進(jìn)化。未來(lái)的大模型,或許將不再以參數(shù)規(guī)模論英雄,而是以記憶系統(tǒng)的設(shè)計(jì)來(lái)決定其真正的高度。(END)
參考資料:https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/
![]()
關(guān)于波動(dòng)智能——
波動(dòng)智能旨在建立一個(gè)基于人類意圖與反應(yīng)的真實(shí)需求洞察及滿足的價(jià)值體系,融合人工智能與意識(shí)科學(xué),構(gòu)建覆蓋情緒識(shí)別、建模與推薦的智能引擎,自主研發(fā)面向社交、電商等場(chǎng)景的多模態(tài)意圖識(shí)別引擎、意圖標(biāo)簽系統(tǒng)及意圖智能推薦算法,形成從情緒采集、意圖建模到商業(yè)轉(zhuǎn)化的完整解決方案。波動(dòng)智能提出“意圖是連接人、物與內(nèi)容的新型接口”,其產(chǎn)品廣泛應(yīng)用于AI社交、個(gè)性化內(nèi)容推薦、虛擬陪伴、電商體驗(yàn)優(yōu)化等領(lǐng)域。波動(dòng)智能正在探索“EMO-as-a-Service”技術(shù)服務(wù)架構(gòu),賦能企業(yè)實(shí)現(xiàn)更高效的用戶洞察與精準(zhǔn)情緒交互,推動(dòng)從功能驅(qū)動(dòng)到意圖驅(qū)動(dòng)的產(chǎn)業(yè)范式升級(jí)。
親愛(ài)的人工智能研究者,為了確保您不會(huì)錯(cuò)過(guò)*波動(dòng)智能*的最新推送,請(qǐng)星標(biāo)*波動(dòng)智能*。我們傾心打造并精選每篇內(nèi)容,只為為您帶來(lái)啟發(fā)和深思,希望能成為您理性思考路上的伙伴!
加入AI交流群請(qǐng)掃碼加微信
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.