![]()
智東西
作者|江宇
編輯|漠影
智東西4月13日報道,昨日,YC總裁Garry Tan開源的“AI記憶外掛”——GBrain,迎來新一輪更新,版本迭代至0.9.0。自4月10日發布后短短數天,該項目已在GitHub狂攬約7.1k星。
![]()
借助這套系統,用戶的筆記、開過的會議、收發的郵件、刷過的社交平臺記錄,乃至通話記錄,都可以被持續寫入同一套系統,并完成結構化整理與索引。
當這些信息積累到一定規模后,再次提問時,AI可以直接調取過往記錄參與判斷。常見用法包括回溯某個人的歷史往來、梳理一段持續演進的思考脈絡,或在會議前自動聚合相關背景信息。
這正好踩在當前AI的一個共識問題上:容易“失憶”。Agent側的memory主要記錄偏好和配置,大模型的上下文又有長度邊界,一旦跨任務、跨時間,信息往往難以延續。GBrain補充上的,正是這一層長期、可累積的數據能力,尤其適合已經在使用OpenClaw、Hermes這類持續運行Agent的用戶。
它將原本分散在各處的數據,整理為一套可以被讀取、寫入并持續更新的“長期記憶層”。Garry Tan也直言,這套系統的目標,是讓Agent具備“對上萬份文檔的完整記憶能力”。
他在分享這一項目時提到:“如果你希望你的Agent能夠完整記住上萬份文檔,GBrain就是為此準備的”,并補充稱,“希望它能幫你搭建屬于自己的mini AGI”。
![]()
在最新版本中,GBrain新增多項確定性命令與生產級技能,包括知識反向鏈接檢查、自動修復LLM生成錯誤、結構化報告生成以及大文件分層上傳等能力,同時進一步強化知識圖譜構建與長期維護機制。
如果已經部署了OpenClaw、Hermes Agent等持續運行的Agent,用戶只需將指令交給Agent執行,安裝、配置與數據導入等流程即可自動完成。一個基礎版本的“腦庫”(即圍繞用戶自身信息建立起來的長期記憶庫),通常在30分鐘左右可以跑通,本地數據庫也可以在幾秒內初始化完成。
開源地址:github.com/garrytan/gbrain
一、脫胎于卡帕西的“大模型維基百科”,進化出“自進化的知識庫”
GBrain并不是一個剛剛冒出來的新項目。早在4月10日,Garry Tan就已在X上密集披露這一項目,并正式對外開源。他將其定義為一套“可被Agent直接讀寫的長期記憶系統”,核心目標是解決AI在個人數據層面的“失憶問題”。
按照Garry Tan的說法,這套方案提供了一種“the easiest, best, guided way(最簡單、最好且帶引導的方式)”來復現個人AI系統。
這套系統已在Garry Tan的個人環境中長期運行,管理過超10000份Markdown文件、3000+人物檔案、13年日歷數據以及5800條Apple Notes記錄,并持續接入會議、郵件、社交信息與原始想法等多類數據,形成一個可被Agent持續調用與更新的個人知識“腦庫”。
4月12日,Garry Tan還進一步放出Skillpack配方、語音接入方案以及完整部署路徑。此版本能在15分鐘以內,完成基礎搭建,并以更接近“Personal AI software(個人AI軟件)”的形態產出——由Agent根據個人數據與需求動態生成與演化,而非一款固定功能的工具。
![]()
同時,他也公開展示了GBrain在語音交互、數據接入與知識沉淀等場景中的實際運行方式。
而這一項目的思路,也與AI大神卡帕西(ndrej Karpathy)提出的LLM Wiki一脈相承,可看作“大模型維基百科”的一次延展。
在4月5日,這一項目的雛形首次被提及。Garry Tan當時提到,他此前基于Karpathy提出的LLM Wiki范式,構建了一套以Markdown為核心的個人知識系統。但隨著數據規模快速增長,這一體系很快觸及瓶頸——其知識庫已膨脹至約2.3GB,Git管理方式開始變得低效甚至“吃不消”。
在這一背景下,他開始引入數據庫與向量檢索能力,對原有結構進行重構,逐步演化出GBrain這一方案。GBrain在底層加入了Postgres與pgvector等組件,使其能夠支撐更大規模的數據檢索與結構化查詢。
![]()
整體來看,GBrain是一套圍繞“個人長期記憶”的完整Agent架構。從個人筆記、日程、社交關系到會議與原始想法,所有數據被持續寫入、索引與回讀,形成一個可被Agent調用的知識系統。
二、先別急著談“記憶”,GBrain先把一套“腦子”搭出來
AI Agent也許已經很聰明,但它并不了解你的生活。會議、郵件、推文、日歷事件、語音通話、原始想法,這些真正構成個人上下文的信息,過去大多散落在不同工具和不同賬號里,模型每次對話都只能“臨場發揮”,很難持續積累。
GBrain要做的,就是把這些數據統一流入一個可搜索的知識庫,讓Agent在每次回應前先讀,在每次對話后再寫,久而久之,這個系統逐漸形成對你個人世界的長期理解。
這一點也是GBrain的核心價值所在——長期記憶,其管理的是“world knowledge”,也就是人物、公司、會議、概念、交易和用戶自己的想法。
Agent自身的memory_search更偏向操作狀態,比如偏好、決策和配置;當前會話則負責處理即時上下文。以上兩層分工之后,再由GBrain來承擔“長期記憶”這一層。
![]()
三、30分鐘上“腦”,部署、擴展和遷移一條路打通
如果用戶已經有OpenClaw、Hermes Agent或其他持續運行的Agent,只需要把指令塊丟進去,剩下的流程由Agent自己讀文檔、執行安裝、詢問API key并完成配置。
![]()
一套基礎版“腦庫”大約30分鐘可以跑通,其中本地數據庫PGLite在2秒內就能初始化,后續的schema建立、文檔導入、embeddings生成和各類集成配置,則根據“腦庫”大小不同,大約需要15到30分鐘。
GBrain默認使用PGLite作為本地數據庫方案。用戶執行gbrain init之后,就能得到一個嵌入式的Postgres“腦庫”,不需要單獨購買服務器,也不要求先準備外部數據庫,屬于“零配置啟動”。
如果后續“腦庫”繼續增長,比如超過1000份文件、需要多設備訪問,或者要通過遠程MCP給別的AI客戶端調用,再用gbrain migrate –to supabase遷移到托管版Postgres。
這套方案既保留了本地部署的低門檻,也給大規模使用留出了升級空間。
此外,其搜索能力在不接OpenAI和Anthropic API key的情況下也能運行,但只能做關鍵詞檢索;接入OpenAI之后,才能啟用向量搜索;補齊Anthropic之后,則可以進一步獲得多查詢擴展和更好的搜索質量。
目前,GBrain主要針對Claude Opus 4.6和GPT-5.4 Thinking這類frontier model測試,小模型大概率撐不起整套方案。
四、郵件、日歷、電話都能往里灌,化身“個人腦庫”
如果說本地Markdown和數據庫是GBrain的底座,讓這套系統真正活起來的,是GBrain持續“進數據”的配方體系——“Getting Data In”。
GBrain提供了一組recipes,讓Agent自己讀取安裝說明、向用戶索要憑據、校驗授權并完成接入。從目前提供的方案看,GBrain已經覆蓋了幾個最核心的數據入口。
![]()
1、通過Credential Gateway可以接入Gmail和Google Calendar,把郵件和日歷流入“腦庫”;
2、通過X-to-Brain可以持續同步X上的timeline、提及和刪除記錄;
3、通過Meeting Sync可以將Circleback生成的會議轉錄寫入人物和會議頁面;
4、Voice-to-Brain則更進一步,允許用戶通過Twilio和OpenAI Realtime搭一個真正能接電話的AI號碼。電話打進來之后,Agent先讀取來電者相關背景,再在通話結束后自動生成包含轉錄、實體識別和交叉引用的新頁面。這套語音能力已經能在真實號碼上運行,未知來電也可以被篩選。
![]()
這套接入機制最關鍵的地方,是它讓記憶系統不再停留在一批靜態文本上。郵件、會議、社交記錄和電話,Agent每處理一次互動,就會把相關信息重新寫回“腦庫”。對用戶來說,這種體驗和傳統知識管理軟件或許已經不太一樣了。
五、記憶開始“滾雪球”,Agent用得越久信息越完整
在項目中,Garry Tan將一道機制稱為“The Compounding Thesis(復利式記憶機制)”。
當新的信息進入系統后,Agent會先識別其中涉及的人物、公司和概念,再優先到“腦庫”中檢索相關內容,結合已有上下文完成回應,隨后把這次新增的信息寫回腦庫,并同步更新索引。
這個“讀取—寫入—更新”的循環不斷重復之后,系統逐漸形成連續的上下文積累,Agent也不再依賴單次對話的信息,而是可以調動歷史數據完成判斷。
Garry Tan也給出了一些典型使用場景。比如,“我該邀請誰來吃飯,同時認識Pedro和Diana?”,背后依賴的是數千個人物頁面及其關系網絡的交叉調用。
再比如,“我過去是怎么談‘羞恥感與創始人表現之間關系’的?”,檢索范圍來自用戶自身過往的記錄和思考。
在更貼近日常使用的場景中,如果30分鐘后要與Jordan見面,系統可以提前整理該人物的資料、過往互動記錄、近期動態以及未完成事項,生成一份會前brief。此類能力依賴的是前期持續沉淀的數據,在需要時被重新調取和組合。
為了讓這套機制能夠穩定運行,GBrain在知識組織結構上也做了相應設計。每個頁面被劃分為“compiled truth”和“timeline”兩部分。前者記錄當前階段對某個人、公司或概念的綜合理解,后者按時間順序追加事件、來源與變化軌跡。
Garry Tan對此稱:“綜合結論是答案,時間線是證據”。這一設計讓系統在不斷更新認知的同時,也保留了信息來源和演變路徑。對于長期記憶系統來說,這種結構更有利于持續修正與復盤,而不是簡單疊加記錄。
六、30個工具之外,“怎么用”尤為重要
GBrain是一個開源倉庫,包含CLI、MCP server、TypeScript庫,以及一整套命令與接口。但進一步展開可以發現,這個項目的重點并不只在工具本身,還包括一整套明確的使用方式。
其中,GBRAIN_SKILLPACK.md被放在核心位置。相比列出有哪些能力,這份文檔更多在規定Agent的行為方式,包括什么時候讀取“腦庫”、什么時候寫入信息、如何做數據富化,以及如何維護整個系統的狀態。
這一設計讓GBrain和常見的功能型項目有所區分。項目中不僅提供了30多個MCP工具,還將brain-agent loop、實體檢測、會議寫入、來源追蹤、定時巡檢以及夜間“dream cycle”等運行邏輯一并寫入Skillpack中。
具體來看,系統要求Agent在每次消息到來時優先進行brain-first lookup,對新出現的人物、公司和概念進行實體捕捉,并以固定周期執行數據同步與embedding更新。同時,還設定了每日更新檢查與夜間批處理流程,用于補全實體、修復引用并整理已有記憶。
在這一套機制下,GBrain將一整套長期運行的流程固化下來,讓Agent在使用過程中持續積累、整理并更新信息。
也正因為如此,GBrain更接近一套Agent基礎設施。它既可以獨立作為CLI工具使用,也支持通過MCP接入Claude Code、Cursor、Windsurf等客戶端,并可通過遠程MCP服務實現跨設備訪問。
對于OpenClaw或Hermes這類持續運行的Agent,它承擔的是長期知識層的角色;對于其他MCP客戶端,則提供一個可查詢、可修改、可擴展的個人知識庫。
從整體結構來看,Garry Tan此次開源的GBrain是一套圍繞“個人長期記憶”構建的完整實現框架。
結語:長期記憶有了新方案,但門檻還在
在現有體系中,大模型負責生成,Agent負責執行,但跨任務、跨時間的信息積累,一直缺乏穩定方案。上下文會被截斷,memory更多停留在偏好與配置層,很多信息難以自然延續。
GBrain提供了一種相對完整的方法:把分散數據持續寫入、結構化整理,并在后續反復調用。這套機制本身并不“輕量”,對模型能力、數據規模和系統運行都有一定要求。
從這個角度看,長期記憶這件事已經有了可以運行的版本,但距離“隨手可用”的形態,還有一段距離。對更廣泛的用戶來說,一個更輕量、更易部署的方案,可能仍然是接下來需要被解決的問題。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.