![]()
“記憶”有望成為 AI 在產業界紅利釋放的最大驅動引擎。
作者丨岑峰
編輯丨馬曉寧
人工智能在過去的十年中,以驚人的速度革新了信息處理和內容生成的方式。然而,無論是大語言模型(LLM)本體,還是基于檢索增強生成(RAG)的系統,在實際應用中都暴露出了一個深層的局限性:缺乏跨越時間的、可演化的、個性化的“記憶”。它們擅長瞬時推理,卻難以實現持續積累經驗、反思歷史、乃至真正像人一樣成長的目標。
近日,雷峰網主辦了一場主題為《智能始于記憶:Agent Memory 的技術演化過程》的線上圓桌論壇,邀請到了金融行業的資深領域專家何逸凡、騰訊 AI Lab 專家研究員王琰、上海交通大學人工智能學院副教授陳思衡三位重量級嘉賓,他們與主持人、 記憶張量CTO李志宇一起,他們圍繞記憶的本質定義、與傳統技術的區別、系統架構的瓶頸,以及未來在金融、教育、游戲等領域的商業化范式,展開了系統性的探討。
何逸凡表示,記憶系統是大模型乃至整個 AI 發展至今,除了核心大模型結構研究之外,可能最為關鍵的領域之一。當前傳統 RAG 系統對召回的研究比重過高,而對記憶的組織研究相對較少。他認為,在金融投研投顧領域,記憶系統將引發一場業務模式上的巨大、革新性變革,最有可能帶來的革新范式是個性化、伴隨成長的投顧和投研系統,即構建投研專家的“分身”。
王琰認為,智能體記憶的關鍵在于自主編織能力。他指出,記憶是模型主動的行為,而上下文工程是人類強加給模型的流程,未來人類主導的 RAG 流程將被取代。他預測,未來 AI 架構的必然趨勢是記憶與推理的解耦以及實現推理時訓練,使模型具備在其生命周期中隨著經歷而不斷變化的能力。
陳思衡闡述了智能體記憶機制與傳統模型訓練的最大不同在于實現自演進。他提出,智能體記憶的組織結構應是一種多層級的圖結構,并認為未來研究應集中在將對記憶的增、刪、改、查能力工具化,通過有針對性的訓練,使模型像調用 Web Search 一樣,自主地對記憶進行操作管理。此外,他指出記憶系統將向著多模態融合、原生動態交互以及引入主觀感受的方向演進。
從理論上的多層級、自主編織,到工程上的解耦、動態更新,再到商業上的“記憶即資產”和“個性化分身”,記憶系統不再是簡單的技術補丁,而是驅動 AI 從瞬時推理工具向具備跨時間積累、理解和成長能力的“有靈魂”智能體進化的核心動力。正如嘉賓所期望,記憶的成熟和發展,有望成為 AI 在產業界突破和產業紅利釋放的最大驅動引擎。
以下是此次圓桌討論的精彩分享,AI 科技評論進行了不改原意的編輯整理:
李志宇:各位晚上好。感謝雷峰網的組織,與我們共同籌備了這場圍繞“記憶”主題的在線圓桌。
我是本次圓桌的主持人李志宇。我目前與團隊共同創立了一家專注于大模型應用研發的AI Infra公司叫記憶張量,我個人在公司擔任首席技術官(CTO)一職。公司致力于構建記憶驅動的大模型應用增強體系及框架研發。團隊先后發布了業界首個記憶分層的大模型,以及首個操作系統級的記憶操作管理框架MemOS(Memory Operating System)并獲得廣泛關注。
在探討下一代智能體時,一個關鍵議題正在浮現:AI 是否需要擁有類人記憶? 這不僅是一個技術命題,更是一個重要的發展方向。
本次會議,我們邀請了三位在本領域極具代表性的嘉賓,共同展望智能記憶體的未來。接下來,我將依次介紹各位嘉賓:
何逸凡老師,現任金融行業的資深領域專家、教授級高級工程師、博士后,長期深耕于金融科技和智能系統研發領域;
王琰老師,現任騰訊 AI Lab 專家研究員,曾任前米哈游大模型團隊上海負責人,專注于探索具有無限長記憶的下一代基座模型架構;
陳思衡老師,現任上海交通大學人工智能學院副教授,專注于多智能體體系化研究,是系統層面和理論層面思考智能體機制相關的代表性學者之一。
三位嘉賓分別代表了產業界、研究界和系統工程三個層面的獨特視角:產業界關注記憶能否帶來新的商業模式;研究界關注記憶機制能否突破現有模型邊界;而系統工程則更注重如何實現智能體的真正記憶與成長。
我們將通過三輪深度討論,從記憶的共同基礎、技術挑戰以及未來展望三個維度,逐層展開。
![]()
01
AI記憶的定義、分層結構與自主決策機制
李志宇:首先請教何逸凡老師。從您的專業角度來看,您認為人類記憶的演化到智能體記憶這一概念轉變過程中,最核心的共性是什么?智能體記憶與人類記憶在哪些方面具備相似性?
何逸凡:在實際實踐中,我們發現記憶系統是大模型乃至整個 AI 發展至今,除了核心大模型結構研究之外,可能最為關鍵的領域之一。從目前的研究與實踐來看,智能體記憶與人類記憶正呈現出越來越多的相似性。
首先是層次性與結構化。人類記憶以有組織、有層次的方式來存儲知識,這對于智能體尤為重要。如何組織記憶的結構、表達和建模是研究重點。然而,目前產業界最樸素的做法是將召回結果作為提示詞輸入給大模型。傳統 RAG 系統對召回的研究比重過高(約占 90%),而對記憶的組織研究相對較少(約占 10%)。我們認為,如何以有層次的方式組織記憶是一個至關重要的問題。
其次是特征提取與抽象概括。人類存儲知識更可能是選擇性地提取核心特征,或進行概括與抽象,這種信息在大腦中轉化為認知的內在機制,對未來的記憶系統具有重要啟發。
第三點是聯想與快速召回。人類記憶擁有瞬間觸發遠期回憶的聯想功能和低延遲的快速召回能力,這對當前的計算機系統而言實現難度較大。智能體記憶系統若要實現像人類那樣,在面對強相關事件時能夠零滯后地快速聯想并召回遠期信息,仍是挑戰。如何實現跨越記憶層次的快速聯想,是我們探索的方向。
總之,智能體記憶可以從人類記憶中汲取大量的靈感,但兩者并非完全等同,也存在本質差異,例如人類記憶中的情感要素。因此,研究的關鍵在于甄別哪些人類記憶特性可供智能體學習和借鑒,而哪些方面存在本質不同。
李志宇:在理解了人類記憶體系對人工智能領域的指導原則后,我們將視角切換至 Agent 自身的工程體系:智能體的記憶與我們目前熟知的上下文工程或 RAG 等技術有何本質區別?
這個問題我想請王琰老師來解答。在構建大模型與智能體的過程中,兩者采取了怎樣的發展路徑?我們應該如何在定義上區分和界定智能體記憶?
王琰:這是一個精彩的問題。我的觀點是:RAG 這類技術不會消亡,但其形式必然會發生變化。
我認為當前 RAG 體系中最大的問題在于人類主導的流水線(Pipeline)限制了模型的行為。我預估,這種以人為干預為主的流程將在未來一年內逐漸被取代。取而代之的,將是一種智能體式的檢索方式:檢索本身被視為一種工具。正如人類使用搜索引擎,智能體也將以類似方式使用搜索引擎。
智能體記憶的關鍵在于自主編織能力。智能體必須具備自主決策的能力,決定在短期記憶中應存儲哪些內容;主動進行檢索,將檢索到的信息納入自身的記憶空間;并在信息不再需要時,將其從記憶空間中移除。
我認為,減少人類對流程的干預,是未來 Agent 架構的核心。人類的角色將越來越多地局限于下達指令和接收回答,而中間流程中的人工干預將日益減少。這便是智能體記憶未來的發展趨勢所在。
李志宇:王老師的觀點非常精辟。您清晰地描繪了記憶系統與外部系統的本質區別,即“能夠查閱并不等同于擁有記憶”。
如果我們從單一智能體交互轉向多智能體交互結構,記憶將不再是孤立的 Agent Memory,而是需要處理跨記憶、跨智能體、跨環境的歷史軌跡信息。
在這種多智能體場景下,記憶應如何被組織?我想請教陳老師:如果將智能體的記憶視作一段歷史的連續軌跡,您認為記憶的結構應以何種方式組織最為理想?
陳思衡:這是一個非常好的問題。我完全贊同:記憶對于智能體而言是一個至關重要的課題。
很多人難以區分大模型(LLM)與智能體(Agent)的區別。如果說大模型更類似于人類的大腦,那么智能體則更類似于完整的人。記憶在區分兩者中發揮著核心作用。當模型以外部記憶進行加持時,它擁有了過去的成功經驗和失敗教訓,使其成為一個更具獨立性的個體。
今年 6 月Devin 公司發布了一篇博客,主張暫緩使用多智能體,因為在多 Agent 相互交流時,任務往往難以順利下發或執行。其原因在于 Agent 之間缺乏共同的上下文(Common Context)。隔天 Anthropic 也發布了一篇博客,闡述了多智能體的必要性及結構化設計方法。這恰恰說明,智能體不僅需要個體記憶,還需要共享記憶或在管理和約束多個智能體方面有更高的要求。
我們在設計智能體記憶時,通常會采用類比的方式:類比人類如何形成記憶,以及計算機如何構建其存儲系統。從人類記憶系統來看,我們會記住事件之間的相互關系,形成關聯式的網絡結構。因此,我們可以采用圖結構作為一種表示形式來管理智能體的記憶,并希望 Agent 能夠以多層次結構來管理其記憶。
我們期望智能體記憶具備以下特性:在每一個層級上,記憶可能采用圖譜結構,節點代表事實、實體或關鍵詞,同時節點之間存在連接關系。記憶并非單一圖結構,而是多層級的圖結構,不同層級之間存在一定的層間關聯與映射。
在多智能體系統中,各個 Agent 維護的記憶庫之間也需要有某種映射關系。一個理想的 Agent 需要維護這樣一個多層級、關聯豐富的記憶,并能實現對其進行增、刪、改、查的操作。
李志宇:感謝陳老師的解答。在智能體(Agent)交互中,記憶起到至關重要的傳導作用。我們將議題轉向產業落地,這里我想問下何老師,尤其針對金融投研、投顧等嚴肅應用場景,何種具備記憶的智能系統才能真正變革現有的決策流程?
何逸凡:李老師提出的問題,對于金融行業而言是一個極其重要但尚未被充分認識到的前沿議題。當前記憶系統研究在產業界尚未形成體系化,行業內仍集中于如何有效地進行知識召回和查詢使用。
在投研和投顧領域,目前仍以場景驅動為主,尚未與記憶系統產生強相關需求。然而,這其中蘊含著巨大的業務模式革新潛力。
雖然 AI 投研和投顧是熱門趨勢,但金融機構普遍尚未意識到“記憶”的重要性,目前的做法仍是將知識檢索出來送入上下文窗口。
問題的關鍵在于:一位資深研究員或投資顧在長期服務中會積累大量的個性化經驗和長期觀點。這種經驗能否形成一種個性化的附加值,輔助其未來的金融服務?據我觀察,在金融領域,目前尚未有機構考慮到這個方向。
當前的 AI 投研和投顧狀態是單次會話模式,客戶提出訴求,系統搜索、總結和生成報告,本次會話即告結束, 對標的、持倉的分析和建議,記憶僅持續在十幾分鐘,且局限于大模型上下文窗口的長度。每一次服務都是一個獨立的“零點開始”。
因此,長期服務過程中形成的個性化環境和積累,至今仍處于空白。反觀之,如果能夠將記憶系統與這兩個場景深度結合,我認為它將會在金融投研投顧領域引發一場業務模式上的巨大、革新性變革,這將對整個行業具有重大促進作用。
李志宇:感謝何老師的分享。在金融等嚴肅場景,記憶帶來的潛在商業化價值是顯而易見的。
現在我們將視角轉向娛樂化領域,王琰老師您在游戲相關智能體研究中,是何時開始意識到記憶不能僅僅依賴于單純的上下文,而需要進行系統化的設計?
王琰:我認為意識到這一點非常簡單:只要一開始進行游戲智能體的開發,就會立即意識到記憶的必要性。
最初,如果只是對話Agent,那么持續塞入幾百甚至上千輪的上下文信息是可行的。但游戲 Agent 的輸入是游戲的狀態信息,每一幀有每一幀有幾K 到幾十K token的長度,而游戲的幀率通常為每秒 15 到 30 幀。這意味著上下文窗口只能塞入一幀信息就幾乎飽和,不可能通過增加上下文窗口來容納所有的歷史幀信息。
因此,我們不可能通過增加上下文窗口的長度來容納所有的歷史幀信息。從工程化的角度來看,我們必須進行上下文工程。
大約在一兩年前,斯坦福大學的論文《Generative Agents》問世,我們試圖將其移植到游戲環境中。我們將游戲過程建模為一個馬爾可夫鏈,使得下一個時刻的行動必須基于當前時刻的狀態。同時將過去的行動等信息,以壓縮的方式注入到輸入提示詞中。這些工程工作大約在 2023 年底開始進行。
隨著工作的深入,我們逐漸意識到這個過程變得極其復雜,因為各個模塊之間需要傳輸大量的上下文、提示詞和歷史行為等信息。我們開始思考是否存在一條根本性的路線來解決這一問題。那時我們探索的方法是參數化記憶,希望將一個 Agent 所有的歷史行為都存儲到一個 LoRA 模塊中,并提出了 TempLora 的方法來實現。
正是從那時起,我開始從架構層面進行關于長期記憶的研究探索。這是我意識到記憶必要性,并在工程和研究上進行探索的整個過程。
李志宇:從復雜度上看,游戲場景的世界模型模擬狀態確實是一個復雜度更高的應用場景。如果我們將視野進一步拓寬,當我們追求完成一個復雜的任務,而不僅僅是簡單的對話時,是訓練一個基座模型還是搭建一個 Agent 框架,兩者之間會產生非常明顯的差異。
針對 Agent 框架的設計,我想請教陳老師:從您的角度來看,設計一個長期、可持續更新的智能體記憶機制,與傳統的一次性模型訓練,其最大的不同點體現在何處?
陳思衡:當前,在大模型智能體領域,自演進和工具調用都是極其熱門的研究方向。您提出的長期、持續地使用并不斷調整自身以達到更強大的狀態的需求,與智能體的自演進理念高度契合,也是未來大模型或智能體進一步發展的關鍵。
自演進的核心在于記憶機制。智能體必須通過持續地總結成功經驗、反思不足之處,從而實現不斷的迭代和提升。如果沒有記憶,智能體將無法凝練經驗、無法反思,也就無法實現成長和自演進。
我認為,智能體記憶的實現在方式上與傳統大模型至少有兩個方面的不同:
首先是系統設計與外部交互。即在已訓練好的基座模型基礎上,讓其與外部存儲,包括數據庫、知識庫 或 RAG 存儲的大量外部信息進行交互。這種交互可以是偏向系統設計的工程方法,也可以是基于提示詞工程的方式。
第二是記憶能力的內嵌訓練。這是一種更根本性 的方法,也可能更能解決實際問題:將操作記憶或訓練記憶的能力直接內嵌到模型中,而非將其視為一個獨立的外部模塊。例如記憶張量去年 7 月份發布的 Memory3框架。
今天,一些基于推理模型加上工具調用進行訓練的智能體方法已經出現,它們在推理過程中會反復調用工具進行信息查詢。我們可以設想,將其中 Web Search 等搜索工具替換為記憶的增加、更新、刪除和遺忘等相關工具。然后,訓練智能體在合適的時機,像使用 Web Search 功能一樣,自主地對其記憶進行恰當的增刪改查。
如果能實現這樣的功能,將能夠促使模型與外部存儲設備進行更深度的交互。
02
智能體記憶的深入探索:技術挑戰、模型架構與算法路徑
李志宇:通過第一輪討論,我們基本明確了記憶的定義、與傳統方法的區別、組織方式及應用潛力。接下來,我們將進入更深入的探討:構建記憶系統的具體技術細節與難點在哪里?哪些是至關重要的工程問題,哪些又是核心的算法問題?
何老師,從您的角度來看,在產業系統的實際落地過程中,引入記憶系統可能引發哪些技術和組織上的挑戰?同時,在您看來,記憶系統在金融行業中(投研、投顧)最有可能帶來的業務革新范式是什么?
何逸凡:在我印象中,產業界尚未形成體系化的記憶系統概念,但在技術層面,產業界已研究了大量與記憶相關的技術。
我可以列舉幾個與記憶系統相關的產業應用和面臨的挑戰:
首先是知識庫與 RAG 系統的局限。大模型在產業界最廣泛的應用是 RAG 系統,即知識庫系統,包括企業知識庫、領域/產品知識庫等。這些系統雖然實用,但在產業界并未被關聯到“記憶”的概念,但它們應屬于記憶領域的一個子課題。
其次是業務知識資產的組織與管理。業務專家經驗和最權威的業務知識往往存儲在業務系統代碼中。挑戰在于:如何系統地組織和管理這些存儲在代碼中的業務知識,并確保在 AI 服務業務流程時,能精確召回并隨上下文提供給大模型,以完成可控、可信的業務流程。
本質上,RAG、業務知識資產組織、上下文工程都屬于記憶范疇,但在產業界被零散對待。這引出了一個疑問:記憶的范疇是否被過度擴大了?因此,對記憶系統進行明確的定義至關重要,以避免將所有非模型訓練問題都歸為記憶。
在技術挑戰方面,在連續的對話或規劃任務中,將全部歷史信息帶入上下文會導致上下文窗口過長,更嚴重的是會干擾模型的認知,例如在多步驟召回中導致決策混亂。
在金融等領域,實時性至關重要。如果對話歷史中引用了實時行情,后續評判時,歷史中的該數據必須根據實時行情進行更新。這意味著歷史記憶本身是動態變化的。用戶可能會要求返回到前幾輪的狀態重新開始,這對記憶系統提出了工程挑戰。
雖然這些問題都可以用樸素的工程方法解決,但產業界缺乏體系化的理論和方法論來研究這些問題。
在商業化挑戰與業務革新范式方面,目前,記憶系統尚未被視為一個獨立的收費單元。如何將記憶系統本身作為一個可付費的組件進行銷售是一個商業化挑戰。
將運維或產品知識作為公共知識在行業云中進行知識庫訂閱的商業模式已存在。未來,記憶系統能否深化為一種 SaaS 服務模式?例如,投顧和投研專家在云端沉淀其專業知識和記憶,并在權限允許下互相融合,從而升級服務能力。
我個人認為最有可能帶來業務革新的范式是:個性化、伴隨成長的投顧和投研系統。即構建投顧/投研專家的“分身”。這些分身能夠掌握客戶或研究員過去的習慣和歷史,提供貼身、定制化的服務。這不僅是財富服務模式的升級,也是商業模式的重大變化。盡管被稱為 Agent,但其核心驅動力正是記憶系統。我個人對此前景充滿信心和期待。
最后是關于記憶與存儲系統的區別。存儲系統本質上是被動的,它等待用戶或程序按規則調用。我個人認為,記憶與存儲系統的核心區別在于:記憶是面向主動召回(Active Retrieval)的一種存儲系統。 如果未來的存儲系統都能實現面向主動召回的機制,那么它們是否都會演變為智能時代的記憶系統?我認為這是一種可能性。
李志宇:非常感謝何老師詳盡的分享。從應用場景來看,具備完整記憶系統的陪伴性、成長性投資系統,可能預示著一種全新的服務形態和業務變革。
接下來,我想請教王琰老師,您在探索無限長記憶的基座模型時,遇到了哪些關鍵的技術瓶頸?您對這些瓶頸和未來可能的解決技術路線有何看法?
王琰 :當前的 Transformer 架構存在一個典型問題,即記憶與推理不分家,兩者本質上都由模型的參數來完成。這導致了一個兩難困境:如果通過充分訓練記錄過去知識,模型的通用能力會迅速下降(災難性遺忘);如果訓練不足,對知識的記憶又不夠牢固。
令人欣喜的是,我最近看到了 Apple 的一項工作,成功實現了記憶與推理的分離:采用一個較小的推理模型和一個非常大的記憶模型,這與人類的快思考與慢思考模式有相似之處。
盡管模型架構已改進,但我們的訓練算法如 Adam 優化器等仍是基礎配置,這也加劇了訓練的瓶頸。Google 的 Nested Learning 或 HOPE 模型是最近的一個有趣的方向,他們直接將優化器本身作為可學習的參數,在推理過程中不斷地優化優化器,再由優化器來改變模型的參數。
此外,當前的深度學習框架并非支持所有新型架構,這導致許多不受主流框架支持的架構很難進行大規模訓練。例如,我們曾嘗試開發 RNN 和 Transformer 的混合架構,由于底層問題效果不佳。有團隊通過解決底層架構問題成功訓練了此類模型,提出了 AHN網絡,將 Mamba 或 RNN 這類模型用作長期記憶。這表明底層基礎設施的限制,使得缺乏 Infra支持 能力的團隊難以進行架構研究。
最后,架構研究還面臨非技術層面的挑戰。新架構往往需要從零開始重新預訓練,但研究者往往缺乏足夠的資源。更現實的問題是,如果成果的模型效果無法超越主流模型,其論文關注度就會很低,導致研究者缺乏動力進行架構創新。同時,公司組織架構也存在挑戰:架構研究團隊通常不是負責短期效果的基座模型團隊,缺乏大規模預訓練所需的資源和數據,而基座模型團隊的巨大壓力導致他們很難重兵投入新架構的研究和探索。只有像 DeepSeek 這樣,研究與工程互通性極高的公司,在這方面才擁有巨大的便利性。
李志宇:確實,對于基模驅動的記憶增強優化無論是對于組織難度、研發難度和投入產出的衡量,都是具備極大挑戰的。現在,我們從基座模型層面的Agent層面進行探討。我想請教陳老師,關于智能記憶體的組織方式,如果假設我們采用圖神經網絡或時序模型表達記憶節點及其聯系,您在目前的研究中對于這類結構有什么樣的思路和見解?
陳思衡:我相信智能體記憶應是一種多層級結構,類似于計算機的存儲系統。類比繪制人物關系圖、思維導圖等人類記憶方式,我預想的結構是:一個分層的圖結構,其中每個層級組織成關系網絡,且層級之間存在關聯。
在圖神經網絡中,節點代表概念或事件。為了快速查詢,我們需要利用節點嵌入。通過構建圖結構和有效的消息傳遞,可以確保相似或相互關聯的節點在嵌入層面具有較高的相似性,實現遠距離和異構信息的關聯。這種結構并非純粹靜態,回溯是動態過程。當提出粗略問題時,系統給出粗略結構;提出細粒度問題時,系統進行細粒度縮放,深入記憶庫追蹤更細節的信息以完善回答。
李志宇:感謝思衡老師的回答,分析了類圖神經網絡的記憶組織形態的優勢。如果未來智能體要更像人類,實現更好的遺忘、更新和更準確的糾錯(例如人類記憶中的干擾或重構機制),從算法研究路徑來看,您覺得我們應采取哪些可行的方法?
陳思衡:純粹從算法角度而言,我認為有以下幾個方面值得深入思考:
首先是整體多層級架構。借鑒計算機組成的概念,我們需要一個多層級的架構,類似于 CPU 使用越頻繁,存儲越小、讀取越快。在智能體中,通過結合參數記憶、上下文記憶和外部數據庫記憶形成分層記憶。根據場景需求,對不同層級的記憶進行分層追蹤,例如根據金融話題切換 LoRA 參數。
其次是遺忘與更新的量化指標。在遺忘和更新過程中,我們需要衡量哪些記憶仍然有信息量。可能需要定義類似于記憶熵或互信息等信息論概念,去量化評估記憶片段的重要性和信息量。
最后是有針對性的訓練與工具化。最終目標是讓模型達到非規則驅動的狀態。我們需要對模型進行訓練,使其像調用 Web Search 一樣,能夠不斷地從外部獲取所需信息。將外部信息獲取替換為對記憶的增、刪、改、查等工具。訓練智能體在合適的時間,自主地調用“添加”、“總結”或“刪除”等工具,對記憶進行操作,將這種能力內嵌到模型中。
03
記憶的商業化路徑:金融、教育、醫療的模式升級
李志宇:在第三部分,我想進一步與各位老師探討未來的行業演變趨勢、模型進化的形態,以及記憶研究中的跨學科演進方向。
請教王琰老師,您認為基于基座模型驅動的無限長記憶研究方案,是否會成為未來智能體發展的關鍵轉折點?如果是,其背后的架構和生態將是怎樣的?
王琰:我認為這是一個漸進發生的過程,而非突然的轉折點。回顧 2023 年,曾有觀點認為無限長的上下文(Context Window)可以解決所有問題,但現在看來上下文長度并非沒有限制。因此,如果我們的記憶能夠實現無限長,我們是否可以重新提出一個觀點:將所有訓練數據直接存儲在模型的記憶中,其效果是否能等同甚至優于直接訓練?鑒于現在模型即智能體的概念日益普及,這無疑是一個必然的趨勢。
我不敢妄下斷言,但我可以提出兩個我確信一定會發生的架構變化:
首先是記憶與推理的解耦(Decoupling)。兩者必然會位于兩個不同的參數區域。未來必然會有一個只包含常識的推理模型,其尺寸可能比現有大模型更小;同時,會有一個負責記憶的更大模型。這個記憶模型在存儲上尺寸會大很多,但并非在每一個 Token 推理時都需要被調用。記憶與推理分離的架構,是未來的必然趨勢。
其次是推理時訓練(Inference-Time Training)。即前向推理過程中參數的動態變化。現在已有許多模型采納了這一思想,包括 RNN 模型、TTT 架構和 Google 的 HOPE 模型。毋庸置疑,就像人類在生命過程中不斷變化一樣,模型也應具備在其生命周期中隨著經歷而不斷變化的能力,其參數中必然有一部分是可變的。目前以我的能力判斷,這兩個趨勢是較為確定的。
李志宇:感謝王老師的分享。接下來我想請教何老師。從您的產業視角來看,未來 3 到 5 年內,記憶智能體最有可能在哪些行業實現更大的突破?同時,如果將記憶服務視為一種未來的商業模式,您認為這個模式中最關鍵的要素可能是什么?
何逸凡:記憶系統在產業界的應用,與新一代 AI 在產業界的滲透趨勢是同步的。當前 AI 發展日新月異,但在產業界,整體上仍處于 ROI 為負的狀態,產業紅利尚未充分釋放。但這預示著 AI 發展的下一波重點,除了基礎研究外,將是產業紅利的釋放,即 AI 在產業界的實際應用研究。記憶系統將是其中的一個重要方向。
在產業突破領域,我判斷:
金融行業最先改變的是對客系統,例如客服演變為業務系統,營業廳演變為營銷系統。但金融的內核(交易)不會被 AI 驅動。
教育行業,我認為具有顛覆性的潛力。AI 可以實現高度個性化的記憶系統,且可能對教育模式的內核產生顛覆性變化,即教育的“芯片”被更換。
醫療行業也將面臨內核被更換的可能性,通過將專業專家的經驗參數化到大模型中,未來可能擁有大部分醫生的知識經驗。
在商業模式與架構思考方面,技術上,記憶與推理的分離是一個重要趨勢。但產業界面臨一個核心未解問題:未來的記憶服務模式是采用集中式巨型模型(將所有記憶參數化,參數占比 90%甚至 100%),還是端側小模型 + 大量外部記憶(參數占比 30%,外部存儲占 70%)?這兩種路線是否會并存?這是一個亟待回答的問題。
從我工作來看,我最確認的關鍵要素是個性化的投顧和投研系統,即能夠伴隨客戶成長的投顧系統,或投研專家的“分身”,這將是財富服務模式的升級和商業模式的重大變化。
李志宇:感謝何老師的分享。從產業角度來看,未來發展記憶系統,關鍵在于如何將記憶切實地轉化為資產,以實現價值重構,并找到潛在的商業化方向,例如金融的對客場景,以及教育、醫療等可能發生內核變革的行業。
接下來我想請問下陳老師:從學術研究和系統應用融合的角度來看,未來智能體要實現跨學科協作,例如融合認知科學、神經科學、機器學習、系統工程等,哪些方面是您認為最值得投入的?此外,展望未來,如果智能體具備情境交互、協作和記憶的能力,可能會帶來哪些系統化的改變?這些改變對現有系統(如 MemOS)能帶來哪些啟示?
陳思衡:關于跨學科合作,我認為認知科學、神經科學等底層研究可以帶來啟發,但也帶來一定的偏差。人類記憶并非完美體系,完全照搬或使智能體趨向于人,可能并非最優解。我個人認為,智能體的設計和記憶機制優化,仍應主要面向具體的應用場景和任務需求,這本質上是一個工程性問題,需要做好工程上的迭代優化。
在情境交互與協作方面,分人機協作和機器協作兩種類型。
情境協作可以使智能體成為親密的 AI 助手。為了貼合人的喜好,智能體需要提升情感和偏好洞察、具備深度的多模態能力,并需要主動觀察,而非被動接收輸入,從而產生更多的交互性記憶。
在多智能體協作中,記憶共享是至關重要的一環。要實現智能體作為一個組織(Organization) 運作,就需要 Agent 之間能夠相互共享記憶、更好地組織和共享上下文(Context),從而實現更強大的調度和能力。
對于 MemOS等記憶系統的啟示,未來可以從以下方面提升:記憶組織結構應具備更多的關系和多層級結構; 模型對記憶工具(增刪改查)的調度能力應是原生化的,能自然地調用工具進行動態管理;未來記憶系統需支持語音、圖像、視頻等多模態數據,以融入人的生活情境;引入如對用戶情緒的理解等主觀感受,使其更懂人性。
04
總結、問答與未來展望
李志宇:通過今天的討論,我們從基礎理論、工程機制、產業落地,到未來的趨勢等多個維度探討了記憶的關鍵點,一致認為:記憶已成為下一代智能體的最核心變量,更是 AI 未來演化的必經之路。
由于時間關系,我們將選取最后兩個觀眾提問問題,邀請各位老師一起討論回答。
第一個問題:如何區分“記憶”和“上下文工程”?
王琰:當前并沒有一個嚴格的區分標準,我只能提供我的區分方式:
記憶: 是模型主動的行為。
上下文工程: 是人類強加給模型的,是人類設定的流程。
因此,KV Cache、RNN 中的 Hidden States、推理時訓練以及模型自發起的增刪改查,我認為它們屬于記憶;而人類定義的 Workflow,則屬于上下文工程。
李志宇:王老師將概念解釋得非常清楚。接下來看第二個問題:未來的一年內 Agent Memory 會出現哪些重要的突破?
陳思衡:正如剛才提到的,我認為以下幾點可能出現重要突破:
首先是多模態記憶,記憶的模態將不僅限于文本,更多的多模態大模型和相關的記憶形態將成為研究重點;其次是原生工具化能力,我們需要將對記憶的增刪改查能力,像工具調用一樣訓練到模型內部,使其能夠更適配、更充分地調用各種記憶編輯工具,進行交互;以及表示形態的演進,可能會出現針對 Memory 的表示形態的演進,例如更好的多層級結構架構,這也是非常值得研究的地方。
李志宇:感謝陳老師。這意味著 Memory 能夠處理的模態范圍以及其上下游的觸達路徑都將有更深遠的突破。
通過前面三個部分的總結,相信大家對智能記憶體有了很好的了解。最后,我們有請各位嘉賓用一句話來總結一下自己對未來記憶增強技術的看法或觀點。
何逸凡:期望記憶的成熟和發展,能夠為 AI 在產業界的突破和完成產業紅利的釋放,成為最大的驅動引擎。
王琰:我希望人的能力不要成為制約大模型能力的一個瓶頸。現在很多記憶設計都是照著擬人化,這就好比要求飛機必須像鳥一樣扇翅膀,這是一種倒退而非進步。我希望大模型擁有比人類更強的記憶能力,而不是僅僅一味地擬人化記憶。
陳思衡:我更多是寄語我自己和組里的同學。我年初就看到了 Agentic Memory 是一個非常好的方向,希望我們能在一年之內發表更多更好的研究成果。
李志宇:再次感謝三位老師的精彩分享。希望今天關于智能體的深入討論,能夠為理解下一代智能體的形態成為一個重要的起點,讓 AI 真正具備跨時間的積累、理解和成長能力,并在個性化層面呈現更好的發展。未來,我們期待共同推進把記憶從概念變成能力,從能力變成系統,最終讓智能體走向產業化和價值化。
謝謝大家,今晚圓桌結束。
完整視頻觀看地址 :
https://youtu.be/kdJ_BI_h1lg
未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!
公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.