<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁(yè) > 網(wǎng)易號(hào) > 正文 申請(qǐng)入駐

      Scaling?已死,記憶當(dāng)立:谷歌Google Research推出嵌套學(xué)習(xí)讓大模型真正像大腦

      0
      分享至


      2017年谷歌團(tuán)隊(duì)的《Attention is All You Need》提出 Transformer 架構(gòu),徹底改寫了大語(yǔ)言模型的命運(yùn),被視為開(kāi)啟“智能革命”的序章。

      而如今,Google Research 的新作《Nested Learning: The Illusion of Deep Learning Architectures》再次引發(fā)行業(yè)震動(dòng),被不少人稱為Transformer 的“精神續(xù)作”,甚至被譽(yù)為 V2 版的基礎(chǔ)范式突破。

      過(guò)去十余年,深度學(xué)習(xí)的主流路徑幾乎都圍繞著“層疊結(jié)構(gòu) + 梯度優(yōu)化”展開(kāi)。我們不斷堆疊更多的層,使用更復(fù)雜的優(yōu)化器,試圖讓模型擁有更強(qiáng)的表達(dá)力。

      然而,這條路徑逐漸顯露出局限,層數(shù)增加并不必然提升計(jì)算深度,優(yōu)化器的選擇往往導(dǎo)致收斂停留在次優(yōu)解,模型在面對(duì)新任務(wù)時(shí)難以快速適應(yīng),更談不上持續(xù)學(xué)習(xí),深度學(xué)習(xí)的“縱向擴(kuò)展”已經(jīng)逼近瓶頸。

      大語(yǔ)言模型的現(xiàn)狀更像是一種“短期記憶的幻覺(jué)”。它們?cè)谏舷挛拇翱趦?nèi)表現(xiàn)出驚人的 in-context 學(xué)習(xí)能力,但一旦窗口關(guān)閉,信息便如同被遺忘。

      就像患有“失憶癥”的人,模型只能活在即時(shí)的當(dāng)下,無(wú)法真正積累長(zhǎng)期記憶。這種缺陷讓人們開(kāi)始追問(wèn):如果 AI 要真正像人腦一樣進(jìn)化,它必須突破層疊架構(gòu)的局限,找到一種能夠持續(xù)記憶、不斷自我更新的全新范式。

      這正是嵌套學(xué)習(xí)(Nested Learning)提出的背景。研究團(tuán)隊(duì)由 Google Research 的核心科學(xué)家與學(xué)術(shù)合作者組成:其中包括長(zhǎng)期領(lǐng)導(dǎo) Google 算法研究的 Vahab Mirrokni,優(yōu)化理論專家 Meisam Razaviyayn,專注表示學(xué)習(xí)與神經(jīng)科學(xué)啟發(fā)的 Ali Behrouz,以及在記憶模塊與算法設(shè)計(jì)上有深厚積累的 Peilin Zhong。可以說(shuō),這是一支兼具理論深度與工程經(jīng)驗(yàn)的跨界團(tuán)隊(duì),他們?cè)噲D用一種全新的學(xué)習(xí)哲學(xué),回答“AI 如何擁有記憶”的世紀(jì)之問(wèn)。

      01

      嵌套學(xué)習(xí)(Nested Learning, NL)范式

      嵌套學(xué)習(xí)的核心思想,是把模型與訓(xùn)練過(guò)程統(tǒng)一為一組嵌套、多層次、并行的優(yōu)化問(wèn)題。傳統(tǒng)深度學(xué)習(xí)往往把架構(gòu)與優(yōu)化分離,訓(xùn)練過(guò)程被視為外部工具,而 NL 則認(rèn)為兩者本質(zhì)上是同一個(gè)系統(tǒng)的不同層級(jí)。每個(gè)組件都有自己的上下文流與梯度流,像是一個(gè)個(gè)獨(dú)立的記憶單元,在不同層次上壓縮信息并傳遞給更高層。


      圖1:大腦中統(tǒng)一和可重用的結(jié)構(gòu)以及多時(shí)間尺度的更新是解鎖人類持續(xù)學(xué)習(xí)的關(guān)鍵組成部分。嵌套學(xué)習(xí)(NL)允許對(duì)大腦的每個(gè)組成部分進(jìn)行多時(shí)間尺度更新,同時(shí)表明眾所周知的架構(gòu),如Transformers,實(shí)際上是具有不同頻率更新的線性層。

      這種設(shè)計(jì)直接借鑒了人腦的多時(shí)間尺度更新機(jī)制。我們知道,腦電波的不同頻率——δ波、θ波、α波、β波、γ波——分別對(duì)應(yīng)記憶鞏固、注意力、感知與思考等不同認(rèn)知功能。

      NL 將這一理念引入人工智能,不同層級(jí)的參數(shù)以不同頻率更新,形成一種分布式的記憶譜系。高頻層負(fù)責(zé)快速適應(yīng),低頻層負(fù)責(zé)長(zhǎng)期積累,從而實(shí)現(xiàn)類似人腦的持續(xù)學(xué)習(xí)。

      更重要的是,NL 打破了傳統(tǒng)深度學(xué)習(xí)的“黑箱”訓(xùn)練模式。過(guò)去,我們只能看到層疊結(jié)構(gòu)的表面,而內(nèi)部的梯度流與優(yōu)化過(guò)程被隱藏在算法背后。嵌套學(xué)習(xí)則讓這些過(guò)程透明化,揭示了層級(jí)之間的關(guān)系與信息流動(dòng)方式。它不僅是一種新的架構(gòu),更是一種新的認(rèn)知框架,讓我們重新理解“學(xué)習(xí)”與“優(yōu)化”的統(tǒng)一性。

      在這一范式下,AI 不再只是一個(gè)靜態(tài)的預(yù)測(cè)機(jī)器,而是一個(gè)能夠在多層次、多頻率下不斷自我更新的動(dòng)態(tài)系統(tǒng)。它的目標(biāo)不再只是“更深的網(wǎng)絡(luò)”,而是“更會(huì)記憶、更能進(jìn)化”的智能體。

      02

      優(yōu)化器與架構(gòu)的新視角

      在嵌套學(xué)習(xí)的框架下,優(yōu)化器不再只是訓(xùn)練過(guò)程中的“工具”,而是被重新賦予了記憶的角色。過(guò)去我們習(xí)慣把 Adam、Momentum、AdaGrad等優(yōu)化算法看作是單純的梯度更新方法,但在 NL 的視角里,它們其實(shí)是“關(guān)聯(lián)記憶模塊”,通過(guò)壓縮梯度信息來(lái)保存訓(xùn)練過(guò)程中的經(jīng)驗(yàn)。或者說(shuō),優(yōu)化器本身就是一種記憶機(jī)制,它決定了模型如何在不同層級(jí)上積累和傳遞知識(shí)。

      這種重新解讀帶來(lái)了新的啟發(fā):如果優(yōu)化器是記憶模塊,那么我們完全可以設(shè)計(jì)更具表現(xiàn)力的優(yōu)化器,讓它們?cè)诓煌l率和上下文中更好地壓縮信息。于是,研究團(tuán)隊(duì)提出了兩種新型優(yōu)化器。


      圖2:嵌套學(xué)習(xí)范式,將機(jī)器學(xué)習(xí)模型及其訓(xùn)練過(guò)程表示為一組嵌套優(yōu)化問(wèn)題。(左)混合架構(gòu)示例。雖然深度學(xué)習(xí)視角,作為NL的扁平圖像,不能提供關(guān)于塊中計(jì)算深度的見(jiàn)解,但NL透明地表示了所有內(nèi)部梯度流。(右)神經(jīng)學(xué)習(xí)模塊:一個(gè)學(xué)習(xí)如何壓縮自身上下文流的計(jì)算模型。例如,第一級(jí)對(duì)應(yīng)于模型最外層的循環(huán)訓(xùn)練,通常稱為“預(yù)訓(xùn)練”步驟。

      其一是Delta Gradient Descent (DGD),它的更新不僅依賴當(dāng)前輸入,還考慮到權(quán)重的狀態(tài),從而突破了傳統(tǒng)優(yōu)化器對(duì)數(shù)據(jù)獨(dú)立同分布的假設(shè)。DGD 的設(shè)計(jì)讓模型能夠捕捉樣本之間的依賴關(guān)系,更貼近真實(shí)世界的動(dòng)態(tài)數(shù)據(jù)流。

      另一種是Multi-scale Momentum Muon (M3),它引入了多頻率的動(dòng)量項(xiàng),支持連續(xù)譜記憶。傳統(tǒng)的動(dòng)量?jī)?yōu)化器往往只在單一時(shí)間尺度上平滑梯度,而 M3 則在不同頻率上同時(shí)進(jìn)行記憶管理:高頻動(dòng)量負(fù)責(zé)快速反應(yīng),低頻動(dòng)量負(fù)責(zé)長(zhǎng)期積累。這種設(shè)計(jì)與嵌套學(xué)習(xí)的多時(shí)間尺度理念高度契合,讓優(yōu)化器本身成為一個(gè)分布式的記憶系統(tǒng)。

      與此同時(shí),架構(gòu)也被重新審視。在 NL 的哲學(xué)中,RNN、Attention、MLP 等不同模塊不再是孤立的功能單元,而是可以統(tǒng)一解釋為不同層級(jí)的嵌套優(yōu)化問(wèn)題。

      RNN的循環(huán)、Attention 的上下文壓縮、MLP 的參數(shù)更新,都可以看作是在各自的層級(jí)上進(jìn)行記憶與優(yōu)化。這樣一來(lái),架構(gòu)與優(yōu)化器之間的界限被打破,它們共同構(gòu)成了一個(gè)多層次的學(xué)習(xí)系統(tǒng),每一層既是計(jì)算單元,也是記憶單元。

      這種視角的轉(zhuǎn)變意義重大。它讓我們不再把“訓(xùn)練”與“架構(gòu)”割裂開(kāi)來(lái),而是把它們統(tǒng)一在一個(gè)嵌套的系統(tǒng)中。優(yōu)化器不只是更新參數(shù)的工具,而是記憶的載體;架構(gòu)不只是堆疊的層,而是嵌套的優(yōu)化問(wèn)題。兩者結(jié)合,形成了一個(gè)能夠在不同頻率和上下文中持續(xù)學(xué)習(xí)的智能體。

      03

      記憶系統(tǒng)的重構(gòu)

      如果說(shuō)深度學(xué)習(xí)的第一階段是“堆疊層數(shù)”,第二階段是“放大規(guī)模”,那么嵌套學(xué)習(xí)所揭示的第三階段,便是對(duì)記憶系統(tǒng)的徹底重構(gòu)。過(guò)去我們習(xí)慣用一種二元?jiǎng)澐謥?lái)理解智能體的記憶,短期記憶負(fù)責(zé)即時(shí)反應(yīng),長(zhǎng)期記憶負(fù)責(zé)知識(shí)積累。這樣的框架簡(jiǎn)單直觀,卻也過(guò)于粗糙,無(wú)法解釋大模型在持續(xù)學(xué)習(xí)中的種種缺陷。

      嵌套學(xué)習(xí)提出了一個(gè)全新的視角——連續(xù)譜記憶系統(tǒng)(Continuum Memory System, CMS)。在這一設(shè)計(jì)中,記憶不再是“短期與長(zhǎng)期”的二分,而是一個(gè)跨頻率的連續(xù)譜。

      不同頻率的神經(jīng)元承擔(dān)不同的記憶功能,高頻神經(jīng)元像是閃電般的反應(yīng)器,能夠快速適應(yīng)新輸入,但存儲(chǔ)時(shí)間有限;低頻神經(jīng)元?jiǎng)t像是深埋的檔案庫(kù),負(fù)責(zé)長(zhǎng)期鞏固與穩(wěn)定知識(shí)。兩者之間形成互補(bǔ),構(gòu)建出一個(gè)既能快速學(xué)習(xí),又能長(zhǎng)期保留的動(dòng)態(tài)記憶網(wǎng)絡(luò)。

      更令人著迷的是,CMS 引入了循環(huán)恢復(fù)機(jī)制。在傳統(tǒng)模型中,一旦信息被遺忘,幾乎無(wú)法再被激活。而在 CMS 的設(shè)計(jì)里,遺忘并非終結(jié),而是暫時(shí)的沉睡。通過(guò)多頻率的交互,部分被遺忘的知識(shí)可以重新被喚醒,形成一種“記憶回環(huán)”。這意味著模型的知識(shí)并不是線性消失,而是可以在不同層級(jí)間循環(huán)流動(dòng),帶來(lái)更強(qiáng)的魯棒性與持續(xù)性。

      這種理念顯然是受到了類腦啟發(fā)。人腦的神經(jīng)可塑性讓我們能夠在受損或缺失的情況下重新組織功能,甚至在半個(gè)大腦被切除的情況下依然保持認(rèn)知能力。

      嵌套學(xué)習(xí)借鑒了這種“結(jié)構(gòu)可重用性”,讓記憶不再依賴單一模塊,而是分布在整個(gè)系統(tǒng)中。,模型的記憶不再是孤島,而是一個(gè)分布式、可重構(gòu)的網(wǎng)絡(luò)。


      圖3:在基于Transformer的骨干網(wǎng)中比較FFN(例如MLP)與線性注意力的示例,通過(guò)梯度下降進(jìn)行優(yōu)化。紅色分量是第一級(jí)(頻率為1)中的塊,而藍(lán)色分量是第二級(jí)(頻率). 具有可學(xué)習(xí)初始記憶狀態(tài)的線性注意力(稱為線性注意力++)與MLP層相同,但具有上下文學(xué)習(xí)能力和對(duì)輸入序列的適應(yīng)能力。

      在這個(gè)框架下,AI 的記憶能力被徹底改寫。它不再只是“記得一時(shí)”或“記得一世”,而是能夠在不同頻率下動(dòng)態(tài)調(diào)度,既能快速響應(yīng)用戶的即時(shí)需求,又能在長(zhǎng)期中不斷積累與進(jìn)化。這種連續(xù)譜記憶的提出,標(biāo)志著人工智能正在從“會(huì)算”走向“會(huì)記”,從“即時(shí)工具”走向“持續(xù)伙伴”。

      04

      自修改學(xué)習(xí)模塊 HOPE

      在嵌套學(xué)習(xí)的宏大敘事中,最令人振奮的設(shè)計(jì)之一就是HOPE(Higher-Order Persistent Evolution)模塊。它的理念堪稱一次范式躍遷,讓模型不僅學(xué)習(xí)任務(wù)本身,還學(xué)習(xí)如何更新自己。HOPE是一個(gè)能夠“自我編程”的序列模型,它在訓(xùn)練過(guò)程中逐漸掌握屬于自己的更新規(guī)則。

      這意味著模型不再依賴外部?jī)?yōu)化器的單向驅(qū)動(dòng),而是具備了自我修改的能力。它能夠在面對(duì)新任務(wù)時(shí)快速吸收知識(shí),同時(shí)避免遺忘舊任務(wù)。

      這種持續(xù)學(xué)習(xí)的能力,正是當(dāng)前大語(yǔ)言模型最缺乏的環(huán)節(jié)。HOPE 的出現(xiàn),打破了“學(xué)新必忘舊”的宿命,讓模型真正具備了像人腦一樣的記憶鞏固機(jī)制。

      在實(shí)驗(yàn)中,HOPE 展現(xiàn)出令人矚目的潛力:在語(yǔ)言建模任務(wù)中,它能夠不斷整合新語(yǔ)料而不丟失已有知識(shí);在知識(shí)融合場(chǎng)景中,它能動(dòng)態(tài)吸收外部信息并與已有知識(shí)體系相互作用。

      在長(zhǎng)上下文推理中,它展現(xiàn)出超越傳統(tǒng) Transformer 的穩(wěn)定性與持續(xù)性。可以說(shuō),HOPE 是邁向“自我進(jìn)化型人工智能”的關(guān)鍵一步,它讓我們看到了 AI 從工具走向生命體的可能性。

      05

      重新審視常見(jiàn)概念

      嵌套學(xué)習(xí)不僅提出了新模塊,更重要的是,它重新定義了我們對(duì)一些核心概念的理解。

      持續(xù)學(xué)習(xí),在 NL 的框架下,不再是簡(jiǎn)單的“避免遺忘”,而是被視為一系列上下文序列的壓縮與傳遞。每一層級(jí)都在壓縮自己的上下文,并將其傳遞給更高層,從而形成一個(gè)動(dòng)態(tài)的知識(shí)流。

      In-context Learning,過(guò)去被視為大模型的“涌現(xiàn)能力”,在 NL 的解釋中則是源于多層嵌套結(jié)構(gòu)的非參數(shù)回歸特性。換句話說(shuō),模型的上下文學(xué)習(xí)能力并非偶然,而是嵌套優(yōu)化的必然產(chǎn)物。

      預(yù)訓(xùn)練,在 NL 的哲學(xué)里,本質(zhì)上是一場(chǎng)大規(guī)模的上下文壓縮過(guò)程。整個(gè)語(yǔ)料庫(kù)被視為一個(gè)巨大的上下文,模型通過(guò)嵌套優(yōu)化逐層壓縮,最終形成參數(shù)化的記憶。這種解釋讓我們重新理解了預(yù)訓(xùn)練的意義:它不是一次性的大規(guī)模學(xué)習(xí),而是嵌套記憶的第一步。

      學(xué)習(xí)與記憶,在傳統(tǒng)認(rèn)知中往往被割裂開(kāi)來(lái):學(xué)習(xí)是訓(xùn)練,記憶是存儲(chǔ)。但在 NL 的框架下,兩者被統(tǒng)一為嵌套優(yōu)化的不同表現(xiàn)形式。學(xué)習(xí)就是記憶的壓縮,記憶就是學(xué)習(xí)的延續(xù)。它們不再是兩個(gè)獨(dú)立的過(guò)程,而是同一個(gè)系統(tǒng)的不同頻率。

      06

      實(shí)驗(yàn)與驗(yàn)證

      任何新的范式都需要在真實(shí)任務(wù)中接受檢驗(yàn),Google Research研究團(tuán)隊(duì)通過(guò)一系列覆蓋面極廣的實(shí)驗(yàn)來(lái)證明其有效性。

      在持續(xù)學(xué)習(xí)的場(chǎng)景中,NL 展現(xiàn)出強(qiáng)大的適應(yīng)力。無(wú)論是語(yǔ)言增量學(xué)習(xí)、問(wèn)答任務(wù),還是類別增量的場(chǎng)景,模型都能夠在吸收新知識(shí)的同時(shí)保持舊知識(shí)的穩(wěn)定性。這一點(diǎn)尤為關(guān)鍵,因?yàn)閭鹘y(tǒng)大模型在面對(duì)增量任務(wù)時(shí)往往會(huì)出現(xiàn)“災(zāi)難性遺忘”,而嵌套學(xué)習(xí)的多層次記憶機(jī)制有效緩解了這一問(wèn)題。


      圖 4:不同架構(gòu)(Hope、Titans、 Samba和基線 Transformer)在語(yǔ)言建模(困惑度;左)和常識(shí)推理(準(zhǔn)確率;右)任務(wù)上的性能比較。

      在長(zhǎng)上下文理解方面,研究團(tuán)隊(duì)選擇了極具挑戰(zhàn)性的Needle-in-a-haystackBABILong基準(zhǔn)測(cè)試。這些任務(wù)要求模型在海量文本中精準(zhǔn)定位關(guān)鍵信息,傳統(tǒng) Transformer 架構(gòu)常常因上下文窗口限制而力不從心。而 NL 的連續(xù)譜記憶系統(tǒng)和多頻率更新機(jī)制,讓模型在長(zhǎng)文本推理中保持穩(wěn)定表現(xiàn),證明了其在復(fù)雜語(yǔ)境下的優(yōu)勢(shì)。

      常識(shí)推理與語(yǔ)言建模任務(wù)同樣是檢驗(yàn)智能的試金石。實(shí)驗(yàn)結(jié)果顯示,嵌套學(xué)習(xí)不僅能夠在常識(shí)推理中展現(xiàn)更高的準(zhǔn)確率,還在語(yǔ)言建模任務(wù)中保持了更好的泛化能力。這意味著 NL 不只是一個(gè)“記憶增強(qiáng)器”,它在核心的語(yǔ)言理解與生成任務(wù)上也具備競(jìng)爭(zhēng)力。

      更值得關(guān)注的是優(yōu)化器的對(duì)比實(shí)驗(yàn)。研究團(tuán)隊(duì)將新提出的M3 優(yōu)化器與傳統(tǒng)的 Adam 等方法進(jìn)行對(duì)比,結(jié)果顯示 M3 在壓縮梯度信息與保持長(zhǎng)期記憶方面表現(xiàn)更優(yōu)。這一發(fā)現(xiàn)再次印證了嵌套學(xué)習(xí)的核心理念:優(yōu)化器本身就是記憶模塊,而多頻率動(dòng)量項(xiàng)能夠讓記憶更持久、更靈活。


      圖 5:對(duì)不同架構(gòu)(Hope、Titans、 TTT和Mamba2)在不同難度級(jí)別的長(zhǎng)上下文任務(wù)上的性能進(jìn)行比較。NIAH-PK、NIAH-H 和NIAH-W 分別是大海撈針任務(wù),分別對(duì)應(yīng)密碼、數(shù)字和單詞。

      綜合來(lái)看,這些實(shí)驗(yàn)為嵌套學(xué)習(xí)提供了堅(jiān)實(shí)的證據(jù)。它不僅在持續(xù)學(xué)習(xí)和長(zhǎng)上下文任務(wù)中具備優(yōu)勢(shì),還在常識(shí)推理與語(yǔ)言建模中展現(xiàn)出潛力,證明了這一范式的廣泛適用性。

      07

      結(jié)論與展望

      嵌套學(xué)習(xí)的提出,被視為繼 Transformer 之后的又一次基礎(chǔ)性革新。它不僅是架構(gòu)上的改進(jìn),更是一種哲學(xué)上的轉(zhuǎn)折,把學(xué)習(xí)與記憶統(tǒng)一在嵌套優(yōu)化的框架中,讓模型真正具備持續(xù)學(xué)習(xí)與自我進(jìn)化的能力。

      在產(chǎn)業(yè)層面,這一突破意義重大。它為大模型的記憶與個(gè)性化服務(wù)提供了新路徑。過(guò)去的大模型更多是“即時(shí)回答工具”,而嵌套學(xué)習(xí)讓我們看到了“持續(xù)伙伴”的可能性。未來(lái)的 AI 不再只是一次性訓(xùn)練的產(chǎn)物,而是能夠在與用戶的長(zhǎng)期交互中不斷積累經(jīng)驗(yàn),提供真正個(gè)性化的服務(wù)。

      展望一下未來(lái),嵌套學(xué)習(xí)的方向可以從三個(gè)維度展開(kāi)。首先是架構(gòu)與優(yōu)化器的協(xié)同設(shè)計(jì),讓不同層級(jí)的記憶與更新機(jī)制更加緊密結(jié)合。其次是工程化驗(yàn)證與大規(guī)模部署,如何在工業(yè)級(jí)場(chǎng)景中穩(wěn)定運(yùn)行 NL,將是下一步的挑戰(zhàn)。最后是跨智能體的記憶共享與個(gè)性化應(yīng)用,讓不同AI 模塊之間能夠打破“記憶孤島”,形成真正的協(xié)作網(wǎng)絡(luò)。

      可以說(shuō),嵌套學(xué)習(xí)正在為人工智能打開(kāi)一條新的道路。它讓我們從“更大、更快”的競(jìng)爭(zhēng),轉(zhuǎn)向“更會(huì)記憶、更懂用戶”的深層能力比拼。這不僅是技術(shù)的進(jìn)化,更是智能的進(jìn)化。未來(lái)的大模型,或許將不再以參數(shù)規(guī)模論英雄,而是以記憶系統(tǒng)的設(shè)計(jì)來(lái)決定其真正的高度。(END)

      參考資料:https://research.google/blog/introducing-nested-learning-a-new-ml-paradigm-for-continual-learning/


      關(guān)于波動(dòng)智能——

      波動(dòng)智能旨在建立一個(gè)基于人類意圖與反應(yīng)的真實(shí)需求洞察及滿足的價(jià)值體系,融合人工智能與意識(shí)科學(xué),構(gòu)建覆蓋情緒識(shí)別、建模與推薦的智能引擎,自主研發(fā)面向社交、電商等場(chǎng)景的多模態(tài)意圖識(shí)別引擎、意圖標(biāo)簽系統(tǒng)及意圖智能推薦算法,形成從情緒采集、意圖建模到商業(yè)轉(zhuǎn)化的完整解決方案。波動(dòng)智能提出“意圖是連接人、物與內(nèi)容的新型接口”,其產(chǎn)品廣泛應(yīng)用于AI社交、個(gè)性化內(nèi)容推薦、虛擬陪伴、電商體驗(yàn)優(yōu)化等領(lǐng)域。波動(dòng)智能正在探索“EMO-as-a-Service”技術(shù)服務(wù)架構(gòu),賦能企業(yè)實(shí)現(xiàn)更高效的用戶洞察與精準(zhǔn)情緒交互,推動(dòng)從功能驅(qū)動(dòng)到意圖驅(qū)動(dòng)的產(chǎn)業(yè)范式升級(jí)。

      親愛(ài)的人工智能研究者,為了確保您不會(huì)錯(cuò)過(guò)*波動(dòng)智能*的最新推送,請(qǐng)星標(biāo)*波動(dòng)智能*。我們傾心打造并精選每篇內(nèi)容,只為為您帶來(lái)啟發(fā)和深思,希望能成為您理性思考路上的伙伴!

      加入AI交流群請(qǐng)掃碼加微信

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點(diǎn)推薦
      雞娃的盡頭是街道辦?!東西海朝等5區(qū)公示錄取名單及生源校!

      雞娃的盡頭是街道辦?!東西海朝等5區(qū)公示錄取名單及生源校!

      京城教育圈
      2025-12-25 20:44:46
      港獨(dú)害人害己:黃之鋒父親賤賣房產(chǎn)舉家飛國(guó)外,不會(huì)被世界原諒!

      港獨(dú)害人害己:黃之鋒父親賤賣房產(chǎn)舉家飛國(guó)外,不會(huì)被世界原諒!

      凡知
      2025-12-23 18:59:57
      越南最大企業(yè)集團(tuán)Vingroup申請(qǐng)撤回南北高鐵項(xiàng)目投資登記

      越南最大企業(yè)集團(tuán)Vingroup申請(qǐng)撤回南北高鐵項(xiàng)目投資登記

      界面新聞
      2025-12-25 16:11:38
      “中立媒體人”黃暐瀚幫賴清德洗地,妄稱臺(tái)灣被統(tǒng)一的那一天不會(huì)到來(lái)

      “中立媒體人”黃暐瀚幫賴清德洗地,妄稱臺(tái)灣被統(tǒng)一的那一天不會(huì)到來(lái)

      海峽導(dǎo)報(bào)社
      2025-12-24 15:52:13
      婚變傳聞后,羅晉攜任素汐與母親去祈福,撕碎了唐嫣最后一絲體面

      婚變傳聞后,羅晉攜任素汐與母親去祈福,撕碎了唐嫣最后一絲體面

      娃娃媽媽愛(ài)下廚
      2025-12-26 01:38:04
      18歲男生把17歲女生弄懷孕生娃,手術(shù)的婦科醫(yī)生居然發(fā)視頻點(diǎn)贊

      18歲男生把17歲女生弄懷孕生娃,手術(shù)的婦科醫(yī)生居然發(fā)視頻點(diǎn)贊

      張曉磊
      2025-12-25 11:49:44
      泰軍突襲柬電詐園區(qū)!現(xiàn)場(chǎng)中文標(biāo)語(yǔ)曝光,字字扎心引眾怒

      泰軍突襲柬電詐園區(qū)!現(xiàn)場(chǎng)中文標(biāo)語(yǔ)曝光,字字扎心引眾怒

      胡嚴(yán)亂語(yǔ)
      2025-12-23 19:13:59
      美國(guó)體面人的“斬殺線”,美人類學(xué)博士稱之為“努力工作卻無(wú)家可歸”

      美國(guó)體面人的“斬殺線”,美人類學(xué)博士稱之為“努力工作卻無(wú)家可歸”

      紅星新聞
      2025-12-25 19:38:09
      貝佐斯為桑切斯慶生!前首富斷崖式衰老像圣誕老人,倆人都很招搖

      貝佐斯為桑切斯慶生!前首富斷崖式衰老像圣誕老人,倆人都很招搖

      丁丁鯉史紀(jì)
      2025-12-23 21:31:01
      網(wǎng)友力量大!五件“假畫”,一件不少,全找到了

      網(wǎng)友力量大!五件“假畫”,一件不少,全找到了

      眼界縱橫
      2025-12-23 00:16:39
      雙影帝飆戲!80集的《曹操傳》官宣,姜文與富大龍聯(lián)手治劇荒

      雙影帝飆戲!80集的《曹操傳》官宣,姜文與富大龍聯(lián)手治劇荒

      科學(xué)發(fā)掘
      2025-12-23 04:10:56
      1只能賣2000元?四川男子洞穴中抓60多只,為壟斷生意往洞里投毒

      1只能賣2000元?四川男子洞穴中抓60多只,為壟斷生意往洞里投毒

      不寫散文詩(shī)
      2025-12-25 14:29:51
      高市早苗支持率居高不下!高達(dá)75.9%,年輕人支持率突破92%

      高市早苗支持率居高不下!高達(dá)75.9%,年輕人支持率突破92%

      環(huán)球熱點(diǎn)快評(píng)
      2025-12-24 14:13:34
      回復(fù)了!成都新能源汽車占道停車2小時(shí)免費(fèi)政策本月底到期

      回復(fù)了!成都新能源汽車占道停車2小時(shí)免費(fèi)政策本月底到期

      掌上金牛
      2025-12-25 12:03:03
      豐田新款皇冠Sport震撼上市,21萬(wàn)起售價(jià)令對(duì)手心慌!

      豐田新款皇冠Sport震撼上市,21萬(wàn)起售價(jià)令對(duì)手心慌!

      生活魔術(shù)專家
      2025-12-25 16:29:38
      全新索納塔假想圖曝光!造型方正酷似勝達(dá),預(yù)計(jì)將會(huì)新增插混版本

      全新索納塔假想圖曝光!造型方正酷似勝達(dá),預(yù)計(jì)將會(huì)新增插混版本

      念寒車評(píng)
      2025-12-25 19:09:42
      鄭麗文滿意度出爐,傅崐萁再獲重用,江啟臣有新動(dòng)作,賴選擇妥協(xié)

      鄭麗文滿意度出爐,傅崐萁再獲重用,江啟臣有新動(dòng)作,賴選擇妥協(xié)

      陳博世財(cái)經(jīng)
      2025-12-25 17:10:52
      重磅!NBA狂喜!謝謝你,東契奇!

      重磅!NBA狂喜!謝謝你,東契奇!

      籃球?qū)崙?zhàn)寶典
      2025-12-25 18:03:44
      全紅嬋太慘了!圣誕節(jié)沒(méi)人搭理她,一個(gè)人在大廳里拍視頻,好凄涼

      全紅嬋太慘了!圣誕節(jié)沒(méi)人搭理她,一個(gè)人在大廳里拍視頻,好凄涼

      小咪侃娛圈
      2025-12-25 14:09:39
      羅嘉良北京喝羊湯,滿頭黑發(fā),顯年輕,直夸燒餅香,一頓飯花50塊

      羅嘉良北京喝羊湯,滿頭黑發(fā),顯年輕,直夸燒餅香,一頓飯花50塊

      甜檸聊史
      2025-12-25 10:36:21
      2025-12-26 04:16:49
      人工智能學(xué)家 incentive-icons
      人工智能學(xué)家
      人工智能領(lǐng)域權(quán)威媒體
      4420文章數(shù) 37357關(guān)注度
      往期回顧 全部

      科技要聞

      小米17Ultra發(fā)布,徠卡2億像素 ,6999元起

      頭條要聞

      俄軍中將在汽車炸彈爆炸中身亡 俄軍報(bào)復(fù)

      頭條要聞

      俄軍中將在汽車炸彈爆炸中身亡 俄軍報(bào)復(fù)

      體育要聞

      約基奇有多喜歡馬?

      娛樂(lè)要聞

      朱孝天把阿信好意當(dāng)球踢!

      財(cái)經(jīng)要聞

      新規(guī)來(lái)了,年化超24%的小貸被即刻叫停

      汽車要聞

      速來(lái)!智界在上海西岸準(zhǔn)備了年末潮流盛典

      態(tài)度原創(chuàng)

      親子
      本地
      時(shí)尚
      房產(chǎn)
      軍事航空

      親子要聞

      三歲打娘娘會(huì)笑,三十打娘娘上調(diào),教子有方家興旺教子無(wú)方家敗光

      本地新聞

      這輩子要積多少德,下輩子才能投胎到德國(guó)當(dāng)狗

      冬季穿衣別顯得太臃腫!大衣收腰、搭配圍巾,有質(zhì)感又高級(jí)

      房產(chǎn)要聞

      太猛了!單月新增企業(yè)4.1萬(wàn)家,又一波巨頭涌向海南!

      軍事要聞

      澤連斯基版“和平計(jì)劃”透露哪些信息

      無(wú)障礙瀏覽 進(jìn)入關(guān)懷版 主站蜘蛛池模板: 99精品在线观看| 国产色无码专区在线观看| 无码高潮少妇毛多水多水| 在线人人车操人人看视频| 69精品人人人人人人| 99久久婷婷国产综合精品| 西西人体大胆午夜视频| 69精品人人人人人人| 五月婷婷开心| 欧美18在线观看| 久久夜夜免费视频| 国产互换人妻XXXXXX6| 门国产乱子视频观看| 尖扎县| www亚洲精品| 国产免费无码一区二区三区| 天天爽夜夜爽人人爽一区二区| 禹州市| 人妻无码一卡| 四虎永久在线精品无码视频| 日本免费精品一区二区三区| 婷婷丁香五月激情综合| 亚洲中文字幕A| 久久99精品久久久久| 久久人妻无码一区二区三区av| 亚洲中文日韩一区二区三区| 久久国产精品-国产精品| av无码av无码专区| 亚洲日无码| 红安县| 超碰AV在线| 麻豆a级片| 亚洲中文av| 国产成人精品一区二区三区免费| 亚洲精品成人片在线播放| aa中文化产品产二区在线| 辉县市| 禹州市| 岚皋县| 91网站免费| 成人午夜视频在线|