<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      ICLR 2026 | LightMem:把大模型「長期記憶」的成本打下來

      0
      分享至



      大模型已經很強,但一旦進入 “長對話、跨多輪、多任務” 的真實智能體交互場景,模型很快就會遇到兩類老問題:

      一是上下文窗口有限,越聊越長時不可避免地 “塞不下”;二是經典的 lost in the middle,即使塞得下也未必用得好。

      于是,給大模型配 “外部記憶系統” 尤為重要:把對話寫進長期記憶、需要時再檢索出來。但現實很快給出了代價 —— 記憶系統往往非常貴:頻繁調用大模型做總結 / 抽取、實時做沖突消解與更新、長鏈路的維護開銷,最終讓 “有記憶的智能體” 在工程上難以承受。

      這篇工作提出 LightMem:一個在 “效果” 和 “效率” 之間更平衡的記憶系統。核心目標很直接:

      在不犧牲準確率的前提下,把 token、API 調用次數和運行時延降下來。



      • 論文標題:LightMem: Lightweight and Efficient Memory-Augmented Generation
      • 論文鏈接:https://arxiv.org/abs/2510.18866
      • 代碼鏈接:https://github.com/zjunlp/LightMem

      為什么現有記憶系統 “能用但太貴”?

      從主流范式來看,LLM 記憶系統大多是這樣工作的:把原始對話按 turn/session 切分;每一段都讓 LLM 做總結 / 抽取,寫入向量庫 / 知識圖譜;新信息到來時,再讓 LLM 在線做更新 (add/delete/merge/ignore);推理時檢索相關記憶拼到 prompt 里回答。



      問題在于,不管是 user 側還是 assistant 側,真實對話場景中含有非常多的冗余信息:寒暄、重復確認、冗余解釋等等。現有系統往往 照單全收,導致:

      1) 冗余信息直接進入管線:token 消耗飆升,而且可能反而干擾 in-context learning;

      2) 切分粒度僵硬:按 turn 太細會導致總結調用爆炸,按 session 太粗又容易主題混雜,最后總結不準;

      3) 在線更新太重:更新與遺忘在 test time 強綁定,長任務延遲高,而且 LLM 還可能在更新時 “誤刪” 信息。

      LightMem 的出發點是:人類記憶并不是 “所有信息都進長期記憶”,而是有一套高效的分層機制:

      感官記憶先過濾 → 短時記憶組織整合 → 長時記憶在睡眠時離線鞏固。

      LightMem 的核心思路:三段式 “類人記憶” 管線

      LightMem 把記憶系統拆成三個輕量模塊 (對應如下的 Light1/Light2/Light3):

      Light1:感官記憶 (Sensory Memory)

      目標:快速過濾無用信息、把輸入壓縮到 “值得記” 的部分,并進行主題切分。

      Light2:短時記憶 (Short-Term Memory, STM)

      目標:按主題把對話組織成結構化單元,降低總結調用次數,同時減少主題混雜。

      Light3:長時記憶 (Long-Term Memory, LTM)+ 睡眠更新 (Sleep-time Update)

      目標:把昂貴的記憶更新從在線推理中 “拿出來”,在離線并行地做去重、合并、修復與鞏固。



      Light1:感官記憶 —— 先壓縮,再切主題

      輕量壓縮:把冗余 token 在系統輸入端過濾掉

      LightMem 使用一個輕量壓縮模型 (論文默認采用 LLMLingua-2) 對原始輸入做預壓縮:

      保留信息量更高、語義更關鍵的 token,把大量冗余 token 提前過濾掉并擋在 pipeline 之外。

      論文實驗也驗證:在合理壓縮率下 (50% 到 80%),LLM 依然能理解壓縮后的上下文,準確率基本不受影響。

      混合主題切分:避免 “按窗口切” 的粗暴做法

      僅靠固定窗口 (turn/session) 很難適配開放對話。LightMem 做了一個混合切分策略:

      • 用注意力信號找到候選 topic 邊界 (局部峰值);
      • 再用相鄰片段的語義相似度做二次確認;
      • 取二者交集作為最終切分點,降低 attention sink、注意力稀釋等噪聲影響。

      Light2:主題感知 STM—— 用 “內容邊界” 替代 “窗口邊界”

      在拿到 topic segments 后,LightMem 把它們以 {topic, turns} 的結構送入 STM buffer。

      當 buffer 達到 token 閾值時,才觸發一次 LLM 總結,對每個 topic 生成更結構化的 summary,并寫入 LTM。

      相比 “每一輪都總結一次”,這種做法直接帶來兩點收益:

      • 調用次數降低:總結不再是 N 次,而是按 buffer 觸發的更少次數;
      • 總結更準確:輸入被 topic 約束,不容易 “把 A 主題的細節總結進 B 主題里”。

      論文的消融實驗也顯示:去掉 topic segmentation 會帶來明顯準確率下降 (GPT/Qwen 都一致)。

      Light3:睡眠更新 —— 把開銷最高的部分從在線推理中剝離

      記憶系統最貴、也最容易出錯的一步,往往是 “更新 / 遺忘”。

      現有系統經常在 test time 做 hard update:合并、刪改、沖突消解都在線執行,延遲高且風險大。

      LightMem 的策略是 “兩段式更新”:

      在線只做 Soft Update:先寫入,不糾結

      測試時新記憶條目到來,LightMem 直接插入 LTM (帶時間戳),不做復雜更新。

      這極大降低了在線延遲,并避免 LLM 在實時更新中誤判沖突導致信息丟失。

      離線做 Parallel Update:每條記憶維護 “可更新隊列”

      離線階段 (sleep time) 觸發更新:

      對每個條目構建一個 update queue (只允許 “新的更新舊的”,即時間戳約束 tj ≥ ti),然后把這些更新操作并行執行。

      并行化的關鍵好處是:

      傳統在線更新存在順序依賴 (讀寫約束) 導致串行累計延遲;而 LightMem 把更新拆成多個獨立隊列,可以離線并行,整體更快。

      結果:不僅更準,而且便宜很多

      論文在兩個長記憶基準上驗證了 LightMem 的效果與效率:

      • LongMemEval (LongMemEval-S)
      • LoCoMo

      并在不同 backbone 上測試:GPT-4o-mini 、 Qwen3-30B-A3B、GLM4.6。





      整體結論非常清晰:LightMem 在準確率上超過基線,同時把成本打下來。

      論文報告的代表性結果包括:

      • 在 LongMemEval 上,LightMem 相比強基線準確率最高提升約 7.7% / 29.3% (不同設置與 backbone);
      • 總 token 消耗降低最高可達 38× / 20.9×,API 調用次數降低最高可達 30× / 55.5×;
      • 如果只看在線 test-time 成本,節省幅度更夸張:token 最高 106× / 117×,API 調用最高 159× / 310×。

      LightMem 是一套面向真實長交互場景的 “輕量記憶系統” 答案:

      它不追求讓記憶機制越來越復雜,而是用更接近人類記憶分工的方式,把冗余擋在入口,把維護放到離線,把代價控制在可部署的范圍內。

      如果你正在做長對話助手、長期在線 agent、或者任何需要 “記憶但又怕貴” 的系統,這篇工作值得細讀。

      我們將 LightMem 的方法論與工程經驗沉淀到 OpenMem 社區 ,推動記憶機制的開放共建與演進。

      OpenMem 旨在共建一個 AI 記憶科學探索與產業實踐的全球協作社區,讓記憶成為 AI 的新 computer layer,促進 Memory Engineering 開源開放,成為 “記憶研究者的家” 與 “記憶技術的標準化基地”,支撐企業級學術級開發者級的記憶應用生態。

      作者簡介

      方繼展,浙江大學人工智能碩士在讀,師從張寧豫副教授。研究方向為 Continual Learning、LLM/Agent Memory 與大模型知識編輯,聚焦記憶系統、自進化 Agent 與模型可控更新。以第一/共一作者身份在 ICLR、ACL、ACM MM等國際頂級會議發表/接收多篇論文。提出并開源面向 Agent 的輕量化長期記憶框架 LightMem,獲得較高社區關注(GitHub 600+ Star),受到MIT technology review邀請專訪,并收到國內多家投資機構/大模型廠商的創業交流邀請。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      國乒正式公布:樊振東最新消息,是有關賽事還是回歸后的訓練安排

      國乒正式公布:樊振東最新消息,是有關賽事還是回歸后的訓練安排

      生活新鮮市
      2026-04-19 04:43:38
      89元卡扣逼廢25萬新車:電車以換代修的維修陷阱 正在掏空全行業

      89元卡扣逼廢25萬新車:電車以換代修的維修陷阱 正在掏空全行業

      車印記
      2026-04-18 15:36:46
      北影節紅毯見光死:高圓圓臉黃土氣、戚薇腫脹、被全裹的馬麗驚艷

      北影節紅毯見光死:高圓圓臉黃土氣、戚薇腫脹、被全裹的馬麗驚艷

      往史過眼云煙
      2026-04-17 14:53:05
      歐冠出局后,巴薩立刻啟動重建

      歐冠出局后,巴薩立刻啟動重建

      郭揦包工頭
      2026-04-18 21:46:13
      沙家浜養傷的新四軍出了多少位開國將軍、大校、上校

      沙家浜養傷的新四軍出了多少位開國將軍、大校、上校

      小港哎歷史
      2026-04-18 16:30:03
      陳麗華500億家產無紛爭!長子一語定調遲重瑞:你這光頭真有福相

      陳麗華500億家產無紛爭!長子一語定調遲重瑞:你這光頭真有福相

      小娛樂悠悠
      2026-04-16 13:24:03
      “這專業,狗都不學!”大學生辣評大學專業,沒有技巧全是感情!

      “這專業,狗都不學!”大學生辣評大學專業,沒有技巧全是感情!

      妍妍教育日記
      2026-04-19 08:40:03
      李小冉一開口全網笑翻,老公徐佳寧在家捶胸:就不該讓她上節目

      李小冉一開口全網笑翻,老公徐佳寧在家捶胸:就不該讓她上節目

      老吳教育課堂
      2026-04-16 00:56:38
      男演員宣布中止合作!知名品牌翻車,創始人深夜致歉:嚴重失責,已開除涉事主播

      男演員宣布中止合作!知名品牌翻車,創始人深夜致歉:嚴重失責,已開除涉事主播

      魯中晨報
      2026-04-17 11:28:05
      41歲創新高!詹姆斯單節8助攻刷新個人季后賽紀錄

      41歲創新高!詹姆斯單節8助攻刷新個人季后賽紀錄

      體壇周報
      2026-04-19 09:30:10
      殲-10升空!防以色列襲擊,巴基斯坦出動20多架飛機護送伊朗談判代表

      殲-10升空!防以色列襲擊,巴基斯坦出動20多架飛機護送伊朗談判代表

      中新經緯
      2026-04-18 14:28:23
      5月1日醫療新政來了!全國公立醫院改革,以后看病不用再擠破頭

      5月1日醫療新政來了!全國公立醫院改革,以后看病不用再擠破頭

      復轉這些年
      2026-04-16 12:26:39
      張涵予新片《尋龍訣》上映僅1天,觀眾強烈要求下架,罵聲一片

      張涵予新片《尋龍訣》上映僅1天,觀眾強烈要求下架,罵聲一片

      一娛三分地
      2026-04-18 19:11:17
      霸王已來,虞姬來嗎?虞姬扮演者李依曉回應宿遷:五月見

      霸王已來,虞姬來嗎?虞姬扮演者李依曉回應宿遷:五月見

      小椰的奶奶
      2026-04-18 18:35:08
      “洪荒少女”傅園慧:曾火到上春晚,后來沒了熱度,現在還好嗎?

      “洪荒少女”傅園慧:曾火到上春晚,后來沒了熱度,現在還好嗎?

      拳擊時空
      2026-04-19 07:39:10
      觀眾口碑大爆,票房劍指20億,陳思誠將打敗餃子成第一導演

      觀眾口碑大爆,票房劍指20億,陳思誠將打敗餃子成第一導演

      影視高原說
      2026-04-18 08:06:39
      第6艘船出事,美軍艦攔截成功,難題已拋給中國,俄政府準備救場

      第6艘船出事,美軍艦攔截成功,難題已拋給中國,俄政府準備救場

      共工之錨
      2026-04-16 13:45:22
      查獲超15噸!東莞這些企業被立案調查!

      查獲超15噸!東莞這些企業被立案調查!

      東莞紀實
      2026-04-18 20:38:47
      炸鍋!人民幣歷史性逆襲!原油結算占 41%,超越歐元打破美元霸權

      炸鍋!人民幣歷史性逆襲!原油結算占 41%,超越歐元打破美元霸權

      混沌錄
      2026-04-17 13:22:05
      8年虧損82億,華誼兄弟涼透!不可一世的娛圈大佬,現狀令人唏噓

      8年虧損82億,華誼兄弟涼透!不可一世的娛圈大佬,現狀令人唏噓

      林輕吟
      2026-04-18 07:30:52
      2026-04-19 11:44:49
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12792文章數 142632關注度
      往期回顧 全部

      科技要聞

      50分26秒破人類紀錄!300臺機器人狂飆半馬

      頭條要聞

      牛彈琴:伊朗遭到特朗普"羞辱"被激怒 結果印度遭了殃

      頭條要聞

      牛彈琴:伊朗遭到特朗普"羞辱"被激怒 結果印度遭了殃

      體育要聞

      掘金擒狼開門紅:五花肉與小辣椒

      娛樂要聞

      張天愛評論區淪陷!被曝卷入小三風波

      財經要聞

      華誼兄弟,8年虧光85億

      汽車要聞

      29分鐘大定破萬 極氪8X為什么這么多人買?

      態度原創

      游戲
      親子
      本地
      公開課
      軍事航空

      輿論徹底失控后首度發聲!Ruler回應逃稅爭議

      親子要聞

      孩子總揉眼睛眨眼睛,不是困了!

      本地新聞

      12噸巧克力有難,全網化身超級偵探添亂

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      伊朗宣布關閉霍爾木茲海峽

      無障礙瀏覽 進入關懷版