鷺羽 發(fā)自 凹非寺
量子位 | 公眾號 QbitAI
開年,DeepSeek論文火遍全網(wǎng),內(nèi)容聚焦大模型記憶。
無獨有偶,谷歌近期也發(fā)布了一篇被譽為“Attention is all you need”V2(Nested Learning: The Illusion of Deep Learning Architectures)的重磅論文,核心同樣指向記憶瓶頸。
就連最近這只徹底破圈的AI大龍蝦——OpenClaw(原名Clawdbot),其亮點之一依舊是記憶。
![]()
也就是說,記憶≈今年全球AI圈集體押注的技術(shù)風(fēng)口≈皇冠明珠。
幾乎所有你能想到的大模型團隊,都在加班加點往自家模型里塞記憶功能……
但這一次,讓我們把視線從這些科技巨頭身上稍稍挪開,就會發(fā)現(xiàn)有一支后起之秀同樣不容小覷。
他們就是陳天橋和鄧亞峰帶隊的EverMind。
為什么這樣說呢?
且看產(chǎn)品,最新發(fā)布世界級長期記憶系統(tǒng)——EverMemOS,發(fā)布即SOTA。
一舉打破多項記憶基準(zhǔn)測試的同時,還能遠超此前所有的基線方法。
![]()
其次,它是真正能用的。
不是只會跑測試的“花架子”,實際部署后效果照樣能打。而且團隊有底氣有信心,技術(shù)代碼全部開源。
為了方便開發(fā)者使用,他們剛剛還專門上線了云服務(wù)——現(xiàn)在只需一個最簡單的API,就能直接將最前沿的大模型記憶能力裝進自己的應(yīng)用。
并且要知道,從EverMemOS正式立項到開源,團隊只用了短短四個月時間,這是什么實力不必多說。
![]()
不止如此,EverMind更是聯(lián)手OpenAI等十多個技術(shù)社區(qū)豪擲英雄帖,發(fā)起首屆記憶起源大賽(Memory Genesis Competition 2026),號召全球頂尖人才前來共同書寫記憶元年。
(突然燃起來了有木有!)
Anyway,下面我們娓娓道來。
大模型的記憶斷裂GAP
在展開聊聊EverMemOS為啥強之前,我們不妨先來思考一個問題:當(dāng)你使用大模型時,是不是總覺得有什么地方不得勁?
前一秒還聊得好好的,下一秒就忘得一干二凈,要么就是拆東墻補西墻,這個記住了,另一個又忘了。
歸根結(jié)底,不是模型能力不夠強,而是記憶功能不夠用。
這就要回到大模型的底層架構(gòu)上講,眾所周知,當(dāng)前大模型普遍用的是Transformer架構(gòu),其記憶核心在于自注意力機制,也就是上下文窗口的信息緩存。
![]()
它會通過計算當(dāng)前窗口的token間關(guān)系,理解上下文含義,但實際運行中由于受限于物理內(nèi)存資源,窗口長度是有限的,一旦文本長度超過窗口限制,信息就會被截斷遺忘。
另外,隨著對話變長,KV Cache占用的顯存也會逐漸膨脹。影響推理效率的同時,為了節(jié)省資源,現(xiàn)有的技術(shù)往往會選擇壓縮舊記憶,從而導(dǎo)致記憶細節(jié)變得模糊。
這顯然影響了用戶的實際體驗,舉個例子be like:
當(dāng)你需要AI協(xié)助寫一篇論文時, 從確定選題→檢索相關(guān)文獻→擬結(jié)構(gòu)→寫初稿→修改優(yōu)化到最后定稿,這當(dāng)中勢必需要多輪交互,但AI壓根記不住你之前寫的內(nèi)容,最后輸出的結(jié)果也只能是驢頭不對馬嘴。
![]()
那怎么辦呢?學(xué)術(shù)界為此提出了三種技術(shù)方案:
- 基于外部存儲的記憶(External Storage based Memory)
這就類似于為大模型配備了一個外部數(shù)據(jù)庫,里面系統(tǒng)存儲著用戶相關(guān)的歷史記錄。當(dāng)用戶提問時,系統(tǒng)就會先去數(shù)據(jù)庫里搜索相關(guān)文檔,再將其和問題一起喂給AI。
但這并非真正的記憶,而是在考場上臨時翻閱教材。
- 基于模型參數(shù)的記憶(Model Parameter based Memory)
該方案本質(zhì)是將記憶通過訓(xùn)練內(nèi)化成模型的一部分,通過微調(diào)SFT或持續(xù)預(yù)訓(xùn)練,讓模型在看到某個問題時,就能迅速通過參數(shù)內(nèi)部權(quán)重指向正確答案。
DeepSeek的最新成果便是用的這個思路,但再訓(xùn)練的成本極高且容易遺忘,不適合個性化和短期記憶。
- 基于隱狀態(tài)的記憶(Latent State based Memory)
通過保存模型的中間推理狀態(tài)(如KV Cache),達成類人的短期記憶或工作記憶。
它非常適用于理解復(fù)雜的對話語境,但換言之,它是一次性的,只能短暫存在,無法長久記憶。
其中業(yè)界用的比較多的方法,還是RAG(檢索增強生成),也就是基于外部存儲的記憶。
但RAG同樣缺點明顯。首先,其工作方式是將長文本切成一個個片段,會破壞信息的連貫性,讓模型難以理解復(fù)雜的因果關(guān)系。
其次RAG依賴向量相似度檢索,擅長找語義相近的內(nèi)容,但在時序匹配上不足;另外RAG知識是相對靜態(tài)的,如果要更新信息,則需要高昂的成本支持。

基于此,EverMemOS應(yīng)運而生。
學(xué)習(xí)大腦記憶機制,成了
啟發(fā)于腦科學(xué)技術(shù)的研究成果,盛大一直以來非常重視長期記憶領(lǐng)域的研究。早在2024年10月,盛大團隊就對外發(fā)布了長期記憶領(lǐng)域的綱領(lǐng)性文章《Long Term Memory-The Foundation of AI Self-Evolution》。
基于盛大多個團隊在該領(lǐng)域的持續(xù)積累,EverMind在2025年8月正式啟動EverMemOS項目,并于11月對外正式發(fā)布開源版本。
EverMemOS是EverMind打造的首款A(yù)I記憶基礎(chǔ)設(shè)施,對比同賽道團隊,似乎姍姍來遲。
Mem0、Zep等產(chǎn)品最早都能追溯到2024年,現(xiàn)在商業(yè)化最成功的開發(fā)者框架Letta(原MemGPT)也是2023年就開始起步。
EverMemOS卻交出了亮眼的答卷:最晚入場,但效果彎道超車。
從技術(shù)角度看,它同時繼承了基于外部存儲和基于隱狀態(tài)兩種路徑。不過業(yè)內(nèi)并非沒有嘗試過此類方案,但EverMind顯然在記憶提取的精準(zhǔn)度和邏輯一致性上實現(xiàn)了更優(yōu)的平衡。
原因在于EverMind抓住了精髓,用鄧亞峰的話說,就是:
- 通過EverMemOS,我們賦予智能體一個活的、不斷演化的歷史。
這里的關(guān)鍵詞其實是“活的”。那么如何能保存最鮮活的記憶呢?人類大腦。
這就引出了EverMind的獨特思路——生物啟發(fā)。
![]()
具體來講,EverMemOS通過模擬人類記憶的形成并轉(zhuǎn)化為計算框架,利用三階段層層遞進以實現(xiàn)大模型長期記憶的存儲和提取:
Step 1:情景軌跡構(gòu)建。
對應(yīng)人腦的海馬體和內(nèi)嗅皮層,可以將連續(xù)的對話內(nèi)容拆分成一個個獨立的記憶單元(MemCell),每個單元里不僅記錄有完整的聊天內(nèi)容,還包括一些關(guān)鍵事實、時效信息等。
Step 2:語義整合。
類比新皮層(前額葉皮層+顳葉皮層),系統(tǒng)會將內(nèi)容相關(guān)的記憶單元歸類在一起,形成主題化的記憶場景(MemScene),同時還會更新用戶畫像,區(qū)分用戶的長期穩(wěn)定偏好和短期臨時狀態(tài)。
Step 3:重構(gòu)式回憶。
這一步對應(yīng)的是前額葉皮層和海馬體的協(xié)同機制,當(dāng)用戶提問時,系統(tǒng)就會在記憶場景的引導(dǎo)下進行智能檢索,只挑選出必要且足夠的記憶內(nèi)容,用于后續(xù)的推理任務(wù)。
由此,AI學(xué)會像人類一樣記憶——這不僅是知識的數(shù)據(jù)庫存儲,更是認知系統(tǒng)的深度整合。如此一來,即便是在多個Agent之間,也能實現(xiàn)信息的高效傳遞。
![]()
至于效果如何,咱們還是眼見為實,看看基準(zhǔn)測試結(jié)果。
團隊選取了4個主流記憶基準(zhǔn)測試,以及多種大模型記憶增強方法。所有方法都基于同一基礎(chǔ)大模型(GPT-4o-mini或GPT-4.1-mini)進行測試。
結(jié)果也很明顯,EverMemOS大獲全勝,全面超越現(xiàn)有記憶系統(tǒng)和全上下文模型。
![]()
其中在LoCoMo上,準(zhǔn)確率直接一躍來到93.05%,尤其是在多跳推理和時序任務(wù)上表現(xiàn)突出,分別提升19.7%和16.1%,同時token使用量和計算成本得到大幅度降低。
在多會話對話評估LongMemEval里,EverMemOS同樣以83%的準(zhǔn)確率位居榜首,說明在面對跨度極大、信息量極高的場景中,EverMemOS依舊能夠精準(zhǔn)檢索和關(guān)聯(lián)到過去的信息,并且通過持續(xù)交流還會不斷進化完善自己。
HaluMem由MemTensor和中國電信研究院聯(lián)合發(fā)布,是業(yè)界首個面向AI記憶系統(tǒng)的操作級幻覺評估基準(zhǔn)。而EverMemOS在保證記憶完整性的同時,也顯著改善了幻覺現(xiàn)象。
在PersonaMem v2里,EverMemOS在九個復(fù)雜場景中依舊全場最佳,保證了深度個性化和行為一致性。
![]()
足以見得,EverMemOS是相當(dāng)全能的一枚選手,記性好、搜得準(zhǔn),關(guān)鍵還運行速度快、成本還夠低,最長可突破百兆上下文限制。
一邊幫大模型減負,一邊幫大模型補記憶力,堪稱大模型版安神補腦液(bushi)
不僅云,還要贏
誠然,技術(shù)扎實是一回事,能不能讓開發(fā)者用起來則是另外一回事。
EverMind覺得,開源還不夠,直接上云服務(wù)。
省去中間繁雜的基礎(chǔ)設(shè)施搭建,從開發(fā)者到EverMemOS,只需要完成簡單的兩行API代碼調(diào)用,就能實現(xiàn)多項記憶操作,包括:
- 記憶攝入:從消息和交互中提取和存儲記憶;
- 記憶檢索:使用篩選選項(例如按元數(shù)據(jù)字段)檢索已存儲的記憶;
- 記憶搜索:利用關(guān)鍵字驅(qū)動的混合檢索方式搜索記憶;
- 對話元數(shù)據(jù):設(shè)置或更新對話元數(shù)據(jù)以改進提取和檢索行為。
有兩種使用EverMemOS的方式,EverMemOS Cloud和開源版本。前者使用托管API,更方便也更快,且核心引擎會自動更新到最新版本,后者則由用戶自己運維。
開源版本需要自行準(zhǔn)備部署環(huán)境:
![]()
云服務(wù)上手更快,功能簡潔,探索空間卻很大:配置記憶空間→獲取API密鑰→保存記憶→使用記憶,即可輕松體驗當(dāng)前業(yè)界性能SOTA的Memory系統(tǒng)。
![]()
選擇EverMemOS云服務(wù)或開源版本的理由
目前云服務(wù)已經(jīng)正式開放內(nèi)測申請,填寫正確的郵箱地址后即可享受免費服務(wù)。(申請入口:https://console.evermind.ai/)
不過正如鄧亞峰所說,要想掌握AI,多學(xué)不如多用。在部署好EverMemOS后,不妨來參加EverMind舉辦的記憶起源大賽。
EverMind把舞臺也給大家一站式搭好了~
![]()
比賽將從1月一直持續(xù)到4月,現(xiàn)已面向全球開發(fā)者開放注冊通道和云平臺,需要注意要在2月底之前完成項目提交。具體將分為三大賽道:
1、記憶+智能體:
要求構(gòu)建具備長期、進化能力的智能體,例如個人數(shù)字孿生、內(nèi)容創(chuàng)作者工作流程、銷售/CRM協(xié)作助手、醫(yī)療保健/治療智能體、教育伙伴、多智能體協(xié)作等。將選出5名獲獎?wù)撸咳霜剟?000美元。
2、平臺插件:
基于VSCode、Chrome、Slack、Discord、Notion、Obsidian或LangChain等框架或SDK為EverMemOS建立擴展操作系統(tǒng)生態(tài)。將選出7名獲獎?wù)撸咳霜剟?000美元。
3、操作系統(tǒng)基礎(chǔ)設(shè)施:
幫助優(yōu)化EverMemOS的核心,例如核心功能修改、性能調(diào)優(yōu)、架構(gòu)改進等。將選出3名獲獎?wù)撸咳霜剟?000美元。
另外還將根據(jù)總成績結(jié)合線下活動表現(xiàn),選出額外的總冠軍(額外1萬美元)、人氣開發(fā)者(額外5000美元)和2個Aha案例(額外3000美元)。
總獎金池高達8萬美元,另外每位獲獎?wù)哌€將擁有收益分成機會和社區(qū)頭銜。其中頂級貢獻者還可有機會獲得全職offer,以及受邀加入EverMind擔(dān)任技術(shù)顧問。
所有參賽選手都將接受來自EverMind工程團隊的直接導(dǎo)師指導(dǎo),更多比賽細節(jié)可見賽事官網(wǎng)。(https://evermind.ai/activities)
![]()
連接智能的關(guān)鍵在記憶
那么最后,我們再來看看EverMind究竟意欲何為?畢竟又是發(fā)新技術(shù)、新平臺,又是辦比賽,這一套組合拳下來,野心可不小。
首先從供給側(cè)講,EverMind正在試圖用EverMemOS重新定義大模型記憶的技術(shù)路線。
EverMemOS沒有沿著原來已有的技術(shù)方案延展,而是實打?qū)嵉孛鞒隽艘粭l以腦科學(xué)+AI的獨特路徑,而且它的技術(shù)成熟度出乎意料地扎實,說明EverMemOS還只是EverMind布局的冰山一角。
事實上,據(jù)EverMind透露,他們已經(jīng)開始構(gòu)造一整套的混合解決方案,其中底層是信息處理模塊,上層則是在強化學(xué)習(xí)的驅(qū)動下,通過調(diào)用模型參數(shù)來實現(xiàn)對信息的使用。
當(dāng)初做EverMemOS的時候,直接挑戰(zhàn)最難的多對多協(xié)作場景,而非基礎(chǔ)的1v1人機對話場景,就是因為他們把目光放在了更長遠的標(biāo)準(zhǔn)重塑上。
![]()
用EverMemOS,讓Agent擁有記憶
其次從需求側(cè)講,舉辦比賽一方面是為了擴大團隊的影響力,將技術(shù)推廣出去,讓行業(yè)得以復(fù)用,另一方面也是為了通過秀肌肉吸納更多相關(guān)領(lǐng)域人才,然后反哺EverMind的全鏈路技術(shù)研發(fā)。
這一點,從賽道設(shè)計中便可看出。三個賽道依次代表應(yīng)用層、中間層、基礎(chǔ)設(shè)施,覆蓋到了用戶所有的開發(fā)環(huán)節(jié),凸顯出EverMind對可循環(huán)應(yīng)用生態(tài)的核心考量。
其實EverMind從一開始就定位明確。它并不滿足于成為一個RAG工具或向量數(shù)據(jù)庫,而是志在于做通向下一代人工智能的基礎(chǔ)設(shè)施,即長期記憶系統(tǒng)(Long Term Memory OS),賦予AI個性化、主動性,以及通過持續(xù)學(xué)習(xí)(Continual Learning)自我演化(Self Evolving)的能力。
EverMind希望能夠成為大模型記憶的書寫者,去親自定義記憶是如何被創(chuàng)建、組織、檢索和演化的。
![]()
而往更大的視角看,EverMind的野心也折射出了一個行業(yè)共識——
智能來到比拼長期記憶的下半場。
人類智能主要由因果推理和長期記憶能力構(gòu)成,如果說OpenAI-o1、DeepSeek-R1為AI帶來了推理能力,那么長期記憶必然是下一代AI應(yīng)該擁有的核心能力。
它將突破大模型的上下文局限,幫助Agent具備個性化特性,并持續(xù)進化出深層次的長期認知,這都是下一代AI必須有的特性。在模型能力日益同質(zhì)化的背景下,哪家Agent能率先搭載高性能記憶系統(tǒng),就意味著哪家能夠真正拉開差距,擁有留住用戶的護城河。
當(dāng)然要實現(xiàn)這一點,不可能只靠一個團隊單打獨斗,而需要一整個生態(tài)協(xié)同發(fā)展,那么誰能成為這個生態(tài)的締造者,就顯得格外重要。
從某種程度講,這恰恰是盛大的舒適區(qū)。
在互聯(lián)網(wǎng)時代,盛大就靠著平臺生態(tài)證明了自己的能力邊界,而在如今新一輪AI時代里,盛大依舊能將過去的戰(zhàn)略經(jīng)驗遷移過來,只是這一次它選擇的是記憶。
所以毋庸置疑,由盛大孵化的EverMind將成為這個領(lǐng)域里不可忽視的一抹力量,它的野心與實力堪配。
此行必然不易,但我們或許已然可以期待,在不久后的將來,有更多如同EverMind的探路者攜手共進,來真正揭開AI長期記憶迷宮的一角。
賽事報名:https://evermind.ai/activities
云服務(wù)入口:https://console.evermind.ai/
論文鏈接:https://arxiv.org/abs/2601.02163
代碼倉庫:https://github.com/EverMind-AI/EverMemOS
官網(wǎng)地址:https://evermind.ai/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.