<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      ICLR 2026 | LightMem:把大模型「長期記憶」的成本打下來

      0
      分享至



      大模型已經很強,但一旦進入 “長對話、跨多輪、多任務” 的真實智能體交互場景,模型很快就會遇到兩類老問題:

      一是上下文窗口有限,越聊越長時不可避免地 “塞不下”;二是經典的 lost in the middle,即使塞得下也未必用得好。

      于是,給大模型配 “外部記憶系統” 尤為重要:把對話寫進長期記憶、需要時再檢索出來。但現實很快給出了代價 —— 記憶系統往往非常貴:頻繁調用大模型做總結 / 抽取、實時做沖突消解與更新、長鏈路的維護開銷,最終讓 “有記憶的智能體” 在工程上難以承受。

      這篇工作提出 LightMem:一個在 “效果” 和 “效率” 之間更平衡的記憶系統。核心目標很直接:

      在不犧牲準確率的前提下,把 token、API 調用次數和運行時延降下來。



      • 論文標題:LightMem: Lightweight and Efficient Memory-Augmented Generation
      • 論文鏈接:https://arxiv.org/abs/2510.18866
      • 代碼鏈接:https://github.com/zjunlp/LightMem

      為什么現有記憶系統 “能用但太貴”?

      從主流范式來看,LLM 記憶系統大多是這樣工作的:把原始對話按 turn/session 切分;每一段都讓 LLM 做總結 / 抽取,寫入向量庫 / 知識圖譜;新信息到來時,再讓 LLM 在線做更新 (add/delete/merge/ignore);推理時檢索相關記憶拼到 prompt 里回答。



      問題在于,不管是 user 側還是 assistant 側,真實對話場景中含有非常多的冗余信息:寒暄、重復確認、冗余解釋等等。現有系統往往 照單全收,導致:

      1) 冗余信息直接進入管線:token 消耗飆升,而且可能反而干擾 in-context learning;

      2) 切分粒度僵硬:按 turn 太細會導致總結調用爆炸,按 session 太粗又容易主題混雜,最后總結不準;

      3) 在線更新太重:更新與遺忘在 test time 強綁定,長任務延遲高,而且 LLM 還可能在更新時 “誤刪” 信息。

      LightMem 的出發點是:人類記憶并不是 “所有信息都進長期記憶”,而是有一套高效的分層機制:

      感官記憶先過濾 → 短時記憶組織整合 → 長時記憶在睡眠時離線鞏固。

      LightMem 的核心思路:三段式 “類人記憶” 管線

      LightMem 把記憶系統拆成三個輕量模塊 (對應如下的 Light1/Light2/Light3):

      Light1:感官記憶 (Sensory Memory)

      目標:快速過濾無用信息、把輸入壓縮到 “值得記” 的部分,并進行主題切分。

      Light2:短時記憶 (Short-Term Memory, STM)

      目標:按主題把對話組織成結構化單元,降低總結調用次數,同時減少主題混雜。

      Light3:長時記憶 (Long-Term Memory, LTM)+ 睡眠更新 (Sleep-time Update)

      目標:把昂貴的記憶更新從在線推理中 “拿出來”,在離線并行地做去重、合并、修復與鞏固。



      Light1:感官記憶 —— 先壓縮,再切主題

      輕量壓縮:把冗余 token 在系統輸入端過濾掉

      LightMem 使用一個輕量壓縮模型 (論文默認采用 LLMLingua-2) 對原始輸入做預壓縮:

      保留信息量更高、語義更關鍵的 token,把大量冗余 token 提前過濾掉并擋在 pipeline 之外。

      論文實驗也驗證:在合理壓縮率下 (50% 到 80%),LLM 依然能理解壓縮后的上下文,準確率基本不受影響。

      混合主題切分:避免 “按窗口切” 的粗暴做法

      僅靠固定窗口 (turn/session) 很難適配開放對話。LightMem 做了一個混合切分策略:

      • 用注意力信號找到候選 topic 邊界 (局部峰值);
      • 再用相鄰片段的語義相似度做二次確認;
      • 取二者交集作為最終切分點,降低 attention sink、注意力稀釋等噪聲影響。

      Light2:主題感知 STM—— 用 “內容邊界” 替代 “窗口邊界”

      在拿到 topic segments 后,LightMem 把它們以 {topic, turns} 的結構送入 STM buffer。

      當 buffer 達到 token 閾值時,才觸發一次 LLM 總結,對每個 topic 生成更結構化的 summary,并寫入 LTM。

      相比 “每一輪都總結一次”,這種做法直接帶來兩點收益:

      • 調用次數降低:總結不再是 N 次,而是按 buffer 觸發的更少次數;
      • 總結更準確:輸入被 topic 約束,不容易 “把 A 主題的細節總結進 B 主題里”。

      論文的消融實驗也顯示:去掉 topic segmentation 會帶來明顯準確率下降 (GPT/Qwen 都一致)。

      Light3:睡眠更新 —— 把開銷最高的部分從在線推理中剝離

      記憶系統最貴、也最容易出錯的一步,往往是 “更新 / 遺忘”。

      現有系統經常在 test time 做 hard update:合并、刪改、沖突消解都在線執行,延遲高且風險大。

      LightMem 的策略是 “兩段式更新”:

      在線只做 Soft Update:先寫入,不糾結

      測試時新記憶條目到來,LightMem 直接插入 LTM (帶時間戳),不做復雜更新。

      這極大降低了在線延遲,并避免 LLM 在實時更新中誤判沖突導致信息丟失。

      離線做 Parallel Update:每條記憶維護 “可更新隊列”

      離線階段 (sleep time) 觸發更新:

      對每個條目構建一個 update queue (只允許 “新的更新舊的”,即時間戳約束 tj ≥ ti),然后把這些更新操作并行執行。

      并行化的關鍵好處是:

      傳統在線更新存在順序依賴 (讀寫約束) 導致串行累計延遲;而 LightMem 把更新拆成多個獨立隊列,可以離線并行,整體更快。

      結果:不僅更準,而且便宜很多

      論文在兩個長記憶基準上驗證了 LightMem 的效果與效率:

      • LongMemEval (LongMemEval-S)
      • LoCoMo

      并在不同 backbone 上測試:GPT-4o-mini 、 Qwen3-30B-A3B、GLM4.6。





      整體結論非常清晰:LightMem 在準確率上超過基線,同時把成本打下來。

      論文報告的代表性結果包括:

      • 在 LongMemEval 上,LightMem 相比強基線準確率最高提升約 7.7% / 29.3% (不同設置與 backbone);
      • 總 token 消耗降低最高可達 38× / 20.9×,API 調用次數降低最高可達 30× / 55.5×;
      • 如果只看在線 test-time 成本,節省幅度更夸張:token 最高 106× / 117×,API 調用最高 159× / 310×。

      LightMem 是一套面向真實長交互場景的 “輕量記憶系統” 答案:

      它不追求讓記憶機制越來越復雜,而是用更接近人類記憶分工的方式,把冗余擋在入口,把維護放到離線,把代價控制在可部署的范圍內。

      如果你正在做長對話助手、長期在線 agent、或者任何需要 “記憶但又怕貴” 的系統,這篇工作值得細讀。

      我們將 LightMem 的方法論與工程經驗沉淀到 OpenMem 社區 ,推動記憶機制的開放共建與演進。

      OpenMem 旨在共建一個 AI 記憶科學探索與產業實踐的全球協作社區,讓記憶成為 AI 的新 computer layer,促進 Memory Engineering 開源開放,成為 “記憶研究者的家” 與 “記憶技術的標準化基地”,支撐企業級學術級開發者級的記憶應用生態。

      作者簡介

      方繼展,浙江大學人工智能碩士在讀,師從張寧豫副教授。研究方向為 Continual Learning、LLM/Agent Memory 與大模型知識編輯,聚焦記憶系統、自進化 Agent 與模型可控更新。以第一/共一作者身份在 ICLR、ACL、ACM MM等國際頂級會議發表/接收多篇論文。提出并開源面向 Agent 的輕量化長期記憶框架 LightMem,獲得較高社區關注(GitHub 600+ Star),受到MIT technology review邀請專訪,并收到國內多家投資機構/大模型廠商的創業交流邀請。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      央視女外賣員短片被罵,駱駝祥子拉黃包車,不是為了欣賞沿途風景

      央視女外賣員短片被罵,駱駝祥子拉黃包車,不是為了欣賞沿途風景

      壹月情感
      2025-12-02 16:42:19
      木耳不要直接用水泡,相當于吃蟲卵,大廚教你正確做法,太實用了

      木耳不要直接用水泡,相當于吃蟲卵,大廚教你正確做法,太實用了

      妙招酷
      2026-02-19 23:55:20
      吃瓜!曝東契奇與相戀10年超模女友分手,1年無互動卻點贊網紅模特

      吃瓜!曝東契奇與相戀10年超模女友分手,1年無互動卻點贊網紅模特

      818體育
      2026-02-26 15:01:37
      做完手術人就廢了,這5種手術不需要做,別讓無知害了自己

      做完手術人就廢了,這5種手術不需要做,別讓無知害了自己

      醫學科普匯
      2026-01-29 06:25:03
      她18歲為人母,25歲四登春晚,跟枕邊人睡4年才知對方是“逃犯”

      她18歲為人母,25歲四登春晚,跟枕邊人睡4年才知對方是“逃犯”

      墨印齋
      2026-02-26 04:51:25
      董璇曬溫馨全家福,小酒窩顏值太出眾,小小年紀美成小公主

      董璇曬溫馨全家福,小酒窩顏值太出眾,小小年紀美成小公主

      風月得自難尋
      2026-02-26 13:29:54
      湖北男子離婚當晚殺害39歲前妻,確認其死后拋尸逃亡17年,一審被判死緩,女子預感被害留遺書;死者女兒:他轉移母親財產,多次死亡威脅

      湖北男子離婚當晚殺害39歲前妻,確認其死后拋尸逃亡17年,一審被判死緩,女子預感被害留遺書;死者女兒:他轉移母親財產,多次死亡威脅

      黃河新聞網呂梁
      2026-02-26 15:39:23
      文科生 72 小時殺入 GitHub 全球榜:我沒寫一行代碼,但指揮了一支 AI 軍隊

      文科生 72 小時殺入 GitHub 全球榜:我沒寫一行代碼,但指揮了一支 AI 軍隊

      極客公園
      2026-02-24 12:13:10
      3比0!35歲世界冠軍碾壓中國天才少年,王楚欽沖冠路上再添勁敵

      3比0!35歲世界冠軍碾壓中國天才少年,王楚欽沖冠路上再添勁敵

      卿子書
      2026-02-26 08:31:28
      原來有人天生就是吃銷售這碗飯的!網友:上班三天就開了千萬大單

      原來有人天生就是吃銷售這碗飯的!網友:上班三天就開了千萬大單

      另子維愛讀史
      2026-02-12 19:09:59
      睡前吃阿托伐他汀有危害?勸告:多人服藥方式錯了,標準答案來了

      睡前吃阿托伐他汀有危害?勸告:多人服藥方式錯了,標準答案來了

      白衣微語
      2026-02-25 21:10:06
      燒光10億,下載暴跌!騰訊元寶,輸慘了!

      燒光10億,下載暴跌!騰訊元寶,輸慘了!

      功夫財經
      2026-02-25 08:57:30
      我們防不住謝潑德,國王主帥沮喪發聲,烏度卡該認清現實

      我們防不住謝潑德,國王主帥沮喪發聲,烏度卡該認清現實

      籃球看比賽
      2026-02-26 16:20:29
      你火鍋里的肥牛,可能根本就沒見過牛

      你火鍋里的肥牛,可能根本就沒見過牛

      富貴說
      2026-02-23 17:59:39
      愛潑斯坦案曝光霍金與身穿比基尼女子合影,霍金家人:系護理人員,他需要全天候照護;此前辟謠照片是合成偽造

      愛潑斯坦案曝光霍金與身穿比基尼女子合影,霍金家人:系護理人員,他需要全天候照護;此前辟謠照片是合成偽造

      觀威海
      2026-02-26 13:54:10
      余嘉豪:很榮幸代表中國男籃參加比賽,很多的困難都不是借口

      余嘉豪:很榮幸代表中國男籃參加比賽,很多的困難都不是借口

      狼叔評論
      2026-02-26 16:02:08
      德國總理默茨抵達杭州繼續中國之行

      德國總理默茨抵達杭州繼續中國之行

      澎湃新聞
      2026-02-26 12:51:03
      圍爐煮茶,為啥涼了?

      圍爐煮茶,為啥涼了?

      放牛娃的遐想
      2026-02-25 08:14:29
      演都不演了!馬筱梅產子不足24小時,惡心事接連發生,還不止一件

      演都不演了!馬筱梅產子不足24小時,惡心事接連發生,還不止一件

      離離言幾許
      2026-02-25 10:38:59
      李世民和武則天圓房那夜,創下歷史最高記錄,至今也未被打破

      李世民和武則天圓房那夜,創下歷史最高記錄,至今也未被打破

      談史論天地
      2026-01-30 15:05:03
      2026-02-26 16:51:00
      機器之心Pro incentive-icons
      機器之心Pro
      專業的人工智能媒體
      12368文章數 142569關注度
      往期回顧 全部

      科技要聞

      單季營收681億凈利429億!英偉達再次炸裂

      頭條要聞

      女子家水費兩個月1847元 整整一個月每天用水都是13噸

      頭條要聞

      女子家水費兩個月1847元 整整一個月每天用水都是13噸

      體育要聞

      從排球少女到冰壺女神,她在米蘭冬奧練出6塊腹肌

      娛樂要聞

      尼格買提撒貝寧滑雪被偶遇 17年老友情

      財經要聞

      人民幣升破6.85,創3年新高

      汽車要聞

      別克君越/昂科威Plus直降5000元 限時優惠價15.49萬起

      態度原創

      健康
      藝術
      教育
      數碼
      公開課

      轉頭就暈的耳石癥,能開車上班嗎?

      藝術要聞

      2025年百家金陵畫展 | 油畫作品選刊

      教育要聞

      毀掉一個孩子最快的方式:父母既要又要還要(推薦)

      數碼要聞

      PC怎能不漲價!惠普:內存已占電腦成本1/3以上

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版