![]()
新智元報道
編輯:YHluck
【新智元導讀】一套叫M-Flow的記憶引擎,最近在海外開發者社區討論度飆升。GitHubstar瞬間破千,LoCoMo、LongMemEval、EvolvingEvents三大公開benchmark評測全部拿下第一,成績一路跑在Mem0、Zep、Graphiti、Cognee、Supermemory前面。但它真正想講的,不是「Benchmark跑分更高」,而是一件更根本的事——真正的Agent記憶,從來不該只是搜索引擎,而是要像人一樣從聯想中獲得啟發。
最近,海外的AI開發者圈子里,反復出現一個新名字——M-Flow。
引發了X(Twitter),Reddit,HackerNews的AI技術圈里熱烈的討論,Github stars飆升。
![]()
一個開源項目能在這么短的時間里被主動討論到這種程度,只有一種可能——
它在一件「所有人都在做、但所有人都做得不夠好」的事情上,做出了點不太一樣的東西。
那件事,叫——Agent Memory。
憑什么說它是「Graph RAG新范式」?
現在市面上做Graph RAG的大多數玩家,本質上是在做一張扁平的圖——不同顆粒度的信息是互相隔離的。
真上業務你就會發現,用戶的問題和存入的內容很難「對齊顆粒度」:
節點一多,遍歷就爆炸;
關系一雜,相關性就稀釋;
想做長時序、跨事件的回憶,要么失憶,要么答非所問。
而來自中國的一個19歲團隊心流元素所開發的M-Flow是唯一可以將相關性編碼進圖拓撲的。
它搞了一套叫做Cone Graph(錐形圖譜)的分層結構:
![]()
最上層是Episode(情景)——完整的語義焦點。
中間一層是Facet(切面)——把這件事拆成若干截面。
最底一層是FacetPoint(切面點)——最小顆粒的原子事實、三元組。
橫穿整個錐的,是Entity(實體)——人、項目、地點、產品,一條錨線串起所有層級,讓信息不再孤立地躺在一個情景里。
三縱一橫,錐形結構。
這是什么意思?
意思是檢索的時候,你不再是在一堆散點里瞎搜,而是在一個有層級、有錨點、有語義骨架的結構里「走」。
搜索引擎是「給你最像的」,M-Flow是「給你相關的、該出現的」。
這就是Graph RAG新范式的開始。
主流Benchmark,全部第一
光講理念沒用,得看成績單。
M-Flow把業內認可度最高的主流評測集全跑了一遍。
重點是對比的競品全面,并且在所有主流測試中穩居第一。
這件事幾乎從未出現在別的記憶項目中,要么是架構專精某一套題,要么省略跑分更高的競品,也正因如此,無數人在自稱SOTA。
M-Flow用的就是每個競品自己公布的題目,以及每個競品自己公布的、自己推薦的那套跑法。
換句話說——在對手的地盤上,按對手的規則打。
![]()
四個榜,四個第一。
不是「換個角度會更好看」,是全方位無死角,全線領先。
但如果M-Flow的故事只講到這兒,就把它講小了。
Benchmark是結果,不是原因。
M-Flow能在所有公開榜單上全線領先,不是因為它比別人更會「搜」,而是因為它比別人多了一樣東西——聯想。
真正的記憶,是聯想
人類的靈感,從來不是憑空出現的
想象一個場景:你正在頭疼,一個項目為什么一直延期。
突然,團隊里有人隨口說了一句——「張三好像根本不知道deadline提前過。」
就這一句話,你腦子里「啪」地一下:
周一的會、那次倉促的deadline變更、張三當時沒說話的表情、誰也沒明確是「誰該通知他」——緊接著,你又想起前三次類似的情況:決策會開了,但關鍵的人都不在場。
于是你抓到的結論,不是「張三漏了個信息」。
而是:「這不是執行問題,是溝通鏈問題。」
這就是聯想。
一個小線索→喚起一個局部錨點→帶出附近的細節→沿著有意義的關系延展→重建一個更大的情景→形成新的解讀。
人類幾乎所有的「靈光一閃」,都是這么發生的。
而今天的AI Agent,幾乎沒有一個真的會這件事。
搜索≠聯想
市面上絕大多數叫「AI記憶」的東西,做的其實都是搜索。
? 搜索問的是:「存起來的文本里,哪段跟我這個query最像?」
? 聯想問的是:「從這個線索出發,該有哪些上下文被重新激活?」
這根本不是同一件事。
? 搜索給你最相似的片段;聯想給你最該被想起來的那個情景。
? 搜索是「從庫里撈」;聯想是「順著關系走」。
? 搜索告訴你「上次說過什么」;聯想讓你意識到——「這事跟那事,其實是一回事」。
一個只會搜的Agent,永遠只能回答「你問的那句話出現在哪條歷史記錄里」。
而一個會聯想的Agent,能從你此刻隨口的一句話,拼出整個上下文,甚至幫你看見你自己還沒看見的那條線。
M-Flow實現的是全新的記憶維度
它不把記憶看成一堆平鋪的文本,而是看成一個有結構的關聯空間。
查詢進來后,先激活細粒度線索,再沿著關系往外擴展,最后恢復出這個線索原本屬于的更大情境。
為什么「聯想」這件事,比Benchmark更重要。
Benchmark重要——它測的是一個記憶系統能不能把該記的記回來。
但benchmark測的,始終是「系統能力」。
真正更有意思的問題是——
記憶,能不能托起「智能層」的行為?
? 一個更準的記憶引擎,讓Agent「找回來得更對」。
? 一個會聯想的記憶引擎,讓Agent重新連接上下文、暴露潛在關系、獲得更深入的理解。
這兩件事,完全不在一個維度上。
「記憶準確度」是一種能力指標。
「聯想與靈感」是一種智能特質。
換句話說,記憶引擎的本質不是讓AI「記得更多」,是讓AI「回答的更好」。
記憶引擎
正在成為Agent的下一個必爭之地
過去兩年,AI圈的焦點一直在「模型」上——參數更大、推理更強、能力更通用。
但進入2025、2026,一個新的共識正在形成——
光靠一次性把context塞進去的Agent,走不遠。
真正能讓Agent「長出穩定人格」、「跨任務協作」、「在時間維度上真正陪伴用戶的」,不是更長的context window,而是一個獨立的、可沉淀的記憶層。
于是過去這一年,整條賽道全線加速:
Mem0剛拿下2400萬美金A輪;
Letta、Zep、Cognee、Supermemory接連完成早期融資;
Graphiti在Graph-RAG方向持續迭代;
連Pinecone這種老牌向量數據庫,都在往「記憶服務」上貼。
但細看這個賽道,你會發現一個有點尷尬的事實——底層路線高度趨同。
要么是向量檢索+摘要;
要么是淺層知識圖譜+BM25回退;
要么是「更精細的RAG」。
歸根結底,所有人都還在「搜索」這個老范式里打轉。
而M-Flow,幾乎是整個賽道里,唯一一個把「聯想」當作第一性問題來做的。
它賭的不是「搜得更準」,是——想得更對。
Agent的下半場,不是誰的模型更大,而是誰的Agent更像人。
而像人,最關鍵的一步,不是「記得多」,而是——會聯想。
M-Flow現在還小,海外社區幾百條討論——在整個AI賽道里,它還只是個剛剛走起來的新人。
但它前進的方向,是對的。
體驗鏈接:
https://github.com/FlowElement-ai/m_flow
m-flow.ai
flowelement.ai
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.