<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      當(dāng)AI開始“記得”你:與兩位創(chuàng)業(yè)者拆解AI記憶技術(shù)

      0
      分享至



      進(jìn)入 2026 年,AI 記憶正在成為行業(yè)最熱的競爭焦點之一。Google 為 Gemini 上線了“個人智能”(Personal Intelligence)功能,經(jīng)用戶授權(quán)后可調(diào)取 Gmail、Google Photos、搜索記錄等個人數(shù)據(jù),實現(xiàn)跨應(yīng)用的語境理解,而非簡單地檢索單封郵件或一張照片,讓 Gemini 開始對用戶的數(shù)據(jù)進(jìn)行“思考”,而非僅僅“獲取”它。而在更早之前,OpenAI 的 ChatGPT 也已大幅升級了記憶系統(tǒng),使其能夠引用用戶所有歷史對話,奧特曼在發(fā)布時表示,“這指向了我們興奮的方向:AI 系統(tǒng)在你的一生中了解你,并變得極其有用和個性化?!?/p>

      在基礎(chǔ)設(shè)施層面,AI 記憶正在成為一條獨立賽道。2025 年 10 月,專注于為 AI Agent 構(gòu)建“記憶層”的初創(chuàng)公司 Mem0 宣布完成 2,400 萬美元 A 輪融資,被 AWS 選為其 Agent SDK 的獨家記憶提供商,GitHub 星標(biāo)超過 4.1 萬,季度 API 調(diào)用從 3,500 萬飆升至 1.86 億。同賽道的 Zep 用時序知識圖譜組織記憶,脫胎于 UC Berkeley MemGPT 研究項目的 Letta 則主張“編程 Agent 的本質(zhì)就是編程記憶”。從開發(fā)者工具到平臺級基礎(chǔ)設(shè)施,“讓 AI 記住用戶”正在從一個附加功能變成剛性需求。

      從產(chǎn)品側(cè)的個人化記憶,到模型架構(gòu)層的記憶機(jī)制革新,AI Memory 不僅是技術(shù)熱點,更是決定 AI 能否從“每次重新開始的工具”進(jìn)化為“持續(xù)了解你的伙伴”的關(guān)鍵分水嶺。

      為了深入探討 AI Memory 的技術(shù)路徑、落地挑戰(zhàn)與產(chǎn)業(yè)前景,本期 DeepTalk 邀請到了兩位深耕這一領(lǐng)域的創(chuàng)業(yè)者,丘腦科技 CTO、浙江大學(xué)博士趙翔;中科院自動化所 AI 博士,智悅云創(chuàng)及 TiMEM 記憶引擎創(chuàng)始人余宣慶。圍繞 AI 記憶的核心技術(shù)、應(yīng)用場景與未來走向展開了一場深度對談。

      以下是對話正文:

      DeepTech:歡迎兩位老師,請先給大家做個自我介紹。

      余宣慶:大家好,我是中科院自動化研究所博士五年級的余宣慶。我們做記憶其實是有淵源的——我的科研方向原來就是知識圖譜,我們課題組又聚焦在工業(yè)制造場景,對于時序數(shù)據(jù)非常關(guān)注。我從博士課題開始就研究時序知識圖譜的預(yù)測,當(dāng)時更多探討的是知識圖譜與大模型之間的關(guān)系,后來自然而然地切入到記憶這個方向,面向智能體場景做學(xué)術(shù)研究。

      創(chuàng)業(yè)方面,我從 2023 年 初就在探索求職招聘方向的應(yīng)用層創(chuàng)新,在這個過程中發(fā)現(xiàn)記憶對性能起著非常關(guān)鍵的作用。2025 年 3 月 開始,我們正式研究記憶中的痛點,做科研驅(qū)動的產(chǎn)品化。目前推出了“TiMEM 太憶 AI”自進(jìn)化認(rèn)知引擎,包含記憶、經(jīng)驗學(xué)習(xí)和事件預(yù)測等功能幫助智能體學(xué)會學(xué)習(xí)、能預(yù)測、能記憶,成為用戶真正的伙伴。

      趙翔:大家好,我是趙翔,丘腦科技的 CTO,2025 年 6 月從浙大博士畢業(yè)。不過畢業(yè)之前大概 3 月 就已經(jīng)在做現(xiàn)在這件事了,一直做到現(xiàn)在。我們公司叫“丘腦”,主要產(chǎn)品叫 Omni Memory,做多模態(tài)的記憶。

      我們關(guān)注到一個趨勢:2025 年 甚至 2026 年,人類所有的公開數(shù)據(jù)可能都會被大模型用完,AI 在人類知識邊界上會達(dá)到一個平臺期。前段時間也有人在講,整個能力進(jìn)化在 C 端用戶那里已經(jīng)感覺不到那么強(qiáng)了。所以我覺得后期 AI 很大的一個方向會是下沉到每個人身邊,實現(xiàn)個性化。Memory 這件事情就變得非常重要。

      另外余總也說到他們很關(guān)注時間,我們也是。因為我們一開始就做全模態(tài),會把視頻模態(tài)考慮進(jìn)去,而視頻天然對時間很敏感。此外,我們認(rèn)為記憶要可審計、可定位、可修改,而要實現(xiàn)這些,最好的錨定就是時間。目前我們的產(chǎn)品已經(jīng)上線了 SaaS 平臺,對外提供 SDK 和 API 接口,歡迎大家試用。

      從上下文到外部存儲,再到原生記憶

      DeepTech:咱們從技術(shù)路線聊起。大模型剛出來的時候,訓(xùn)練階段用了海量語料,我們感覺它其實也有“記憶”,只不過不是針對個人的。后來我們發(fā)現(xiàn),大模型的知識來源主要是上下文窗口,再后來模型越來越大,可以外掛知識庫,我們又會覺得它的信息是基于知識庫的,知識庫里的信息也可以被視為一種記憶。這些技術(shù)發(fā)展的脈絡(luò)和我們現(xiàn)在說的 AI Memory 之間有什么區(qū)別?

      余宣慶:最開始我們感知到的“記憶”,更多是模型好像知道我歷史的交互數(shù)據(jù),不再是一次輸入一次輸出,下一次再問的時候它還記得之前聊過什么。這種上下文記憶的實現(xiàn)方式,本質(zhì)上是把過往的聊天歷史重新作為提示詞的一部分再次輸給大模型。

      但問題很明顯:上下文窗口有限,當(dāng)交互歷史達(dá)到一定長度后,就不得不開一個新會話,之前的內(nèi)容就丟棄了。于是我們自然會想,這些歷史對話數(shù)據(jù)能不能成為外部存儲?比如用壓縮或者向量存儲的方式來檢索。但這又會帶來新的痛點:里面含有大量噪音,無法建立事件之間的關(guān)系和聯(lián)系,在需要找到相關(guān)語義信息時無法提供精準(zhǔn)的上下文支持。

      所以現(xiàn)在我們談的 AI Memory,其實是一種面向智能體的原生記憶操作系統(tǒng)——從上下文記憶,到外部存儲,再到智能記憶體,不斷緩解每個階段的痛點。我們現(xiàn)在要探討的,正是記憶如何不只做存儲,而是進(jìn)化到可以認(rèn)知、可以把經(jīng)驗提取出來的階段。

      趙翔:我補(bǔ)充一下。AI Memory 這個概念其實很泛,包括模型本身權(quán)重中的記憶,以及外部輸入的知識庫。我們現(xiàn)在經(jīng)常把它當(dāng)作 Context Engineering 來做,就是因為目前的模型本身是無狀態(tài)的——在大規(guī)模分布式部署時,用戶拿著他的 ID 和全部上下文一起扔給模型,模型可能通過 KV Cache 實現(xiàn)一個短期的工作記憶。但目前所有的 Agent,本質(zhì)上都是在做 Context Engineering:怎么又好又準(zhǔn),在 Token 效率的前提下把整個 Context 組織好,交給模型,利用好它的上下文窗口。

      以前大家用 RAG 檢索文檔,或者利用文件系統(tǒng)存一些文本拉回到上下文,這些都是早期的做法。但我們現(xiàn)在希望 Memory 能夠隨著用戶不斷學(xué)習(xí)和進(jìn)化——逐漸生長成一個人的 Life Context:他的記憶、經(jīng)歷、背景、偏好。通過 RAG 或 Graph RAG 的形式儲存,再通過用戶的一句 Query 模糊召回相關(guān) Context。目前整個 AI Memory 的方向,就是希望它是 Token 高效的、精確的、能根據(jù)語義精準(zhǔn)召回用戶以前說過的話和偏好。

      AI 記憶與人類記憶的相似性

      DeepTech:我們?nèi)祟惖挠洃浻泄ぷ饔洃?、短期記憶、長期記憶,而且很多時候人類記憶是模糊的,先模糊召回,隨著檢索深入再逐漸變得清晰。AI 記憶的開發(fā)過程中,是不是有某種與人類記憶相似的原理?

      趙翔:確實有一定相似性。人的工作記憶存在大腦皮層,短期記憶和情景記憶可能存在海馬體,通過不同頻率的信號,大腦會重新建立新的突觸和連接,形成持久性記憶。AI 現(xiàn)在也在嘗試模擬這個過程。

      比如說,我們可能先模糊地想到一件事,這就是模糊匹配,先命中這件事本身。然后神經(jīng)元向外擴(kuò)散突觸連接,想到一些與之相關(guān)的記憶進(jìn)行召回。這和 Graph RAG 很像:命中了一些節(jié)點之后,沿著圖做一跳或多跳的擴(kuò)散,召回新的節(jié)點。從模糊匹配到仔細(xì)回想,再到形成整個認(rèn)知并拉回來,這個過程和人類記憶還是很像的。

      余宣慶:我也非常認(rèn)可。人工智能確實從腦科學(xué)、認(rèn)知心理學(xué)中獲取理論基礎(chǔ)和靈感來建設(shè)系統(tǒng)。但我不完全認(rèn)為它一定要和人腦的神經(jīng)結(jié)構(gòu)完全對應(yīng)。因為人類天然有生理局限性,會自然遺忘。而存在計算機(jī)系統(tǒng)里的數(shù)據(jù)是否有必要專門去遺忘,我打個問號。我們更多探討的是:在下一次 AI 輔助決策或執(zhí)行任務(wù)時,它能不能用最低的成本、最高的響應(yīng)速度找回需要的信息——這個信息可以是精細(xì)粒度的,也可以是概要性的。

      人腦記憶是結(jié)合了情境的:結(jié)合我們當(dāng)下正在發(fā)生的事情的話題、任務(wù)和目標(biāo),把內(nèi)容和情境關(guān)聯(lián)起來再去存儲?,F(xiàn)在一些記憶工程的實現(xiàn),也開始分主題保存、分層保存,探索加入環(huán)境交互、目標(biāo)感知,來決定記什么、重點記多少。記憶這個學(xué)科,確實是腦科學(xué)和實際工程場景的需求雙向哺育發(fā)展的。

      同時,記憶的作用不只是服務(wù)人。智能體對自身的工具調(diào)用、行動軌跡也需要提取經(jīng)驗;智能體之間的交互也需要學(xué)習(xí)和記憶。記憶的作用范圍不只是 Human 和 Agent 之間,還可能是 Agent 和 Agent 之間,或者 Agent 對自身的。

      短期記憶與長期記憶的實現(xiàn)機(jī)制

      DeepTech:那短期記憶和長期記憶在具體的實現(xiàn)機(jī)制上有什么不同?

      趙翔:短期記憶和工作記憶其實差不多,目前的實現(xiàn)方式就是 Context Window 上下文窗口。因為模型本身是無狀態(tài)的,只負(fù)責(zé)計算和輸出 Token 預(yù)測。為了解決工作記憶的一致性,使得下一次對話時能把前面的思考和內(nèi)容全部帶上,就用了 KV Cache。以前單體模型部署在顯存里,現(xiàn)在大規(guī)模部署用分布式 KV Cache 來緩存。我們在工程上也會盡量讓上下文前綴保持 Token 級的穩(wěn)定,確保 KV Cache 命中,降低重新計算量,實現(xiàn)對話窗口中短期記憶和人格的一致性。

      長期記憶方面,除了持續(xù)學(xué)習(xí)以外,目前我們在做的 Memory,是在 Context Engineering 中從人和 AI 的對話里去記情景記憶或語義記憶。情景記憶就是原始對話的細(xì)節(jié),語義記憶則是對這些細(xì)節(jié)做語義抽象,抽象到更高層級,相當(dāng)于做了一個摘要,本質(zhì)上是一種壓縮。對人來說,記憶事情也是以事件為中心的——不會一下子記到很細(xì)的東西,可能先回想起來“我們昨天做了一件什么事”,再去想里面的細(xì)節(jié)。語義記憶就是把事件本身做一個簡短的 Summary 抽象保存。

      余宣慶:趙總說得很好。我補(bǔ)充一下工作記憶這塊:我認(rèn)為它更多關(guān)注的是 AI 完成當(dāng)次會話所要關(guān)注的任務(wù)中,哪些是關(guān)鍵信息、哪些可以丟棄。在技術(shù)實現(xiàn)上,短期記憶中也可以利用強(qiáng)化學(xué)習(xí)來判斷哪些信息在下次使用中應(yīng)該被遺忘,這本質(zhì)上是對注意力的加強(qiáng)。因為 AI 在執(zhí)行任務(wù)過程中可能會注入冗余信息,對上下文窗口的占用和大模型的注意力都會產(chǎn)生干擾。

      常規(guī)的實現(xiàn)方式是:最近的保留原文,遠(yuǎn)端保留摘要,再遠(yuǎn)端保留長期記憶,這樣一個組合給到 AI。對于長期記憶中的語義記憶,我覺得除了保留事件和話題外,更重要的是關(guān)注結(jié)構(gòu)化——不只是顯性的概念性事實信息,還有 AI 聯(lián)想思考延伸出來的內(nèi)在屬性,以及不同主題信息之間的關(guān)聯(lián)。這樣在回憶時可以借助類比思考、相似案例來做一些啟發(fā)性的工作。

      信息壓縮與丟失的權(quán)衡

      DeepTech:形成摘要的過程中,會不會造成信息丟失?隨著記憶越來越多,AI 會不會在需要時調(diào)用不出這些記憶,或者調(diào)用出錯誤的記憶?

      余宣慶:壓縮比這件事非常關(guān)鍵。不是每一輪交互輸入都很長,如果都用同樣的壓縮比,肯定不合適,需要調(diào)控。

      我最近看到一篇研究,把壓縮看成一個“可旋轉(zhuǎn)的旋鈕”,更多關(guān)注的是某個任務(wù)、某個目標(biāo)下壓縮是否合適,有些細(xì)節(jié)信息要不要保留,可以根據(jù)臨時情況判斷。我們自己的一個工作則是持續(xù)分層級壓縮:先做一步壓縮,再異步做二次、三次壓縮。跨越的時間范圍越長,壓縮粒度越粗。第一層壓縮盡量去除冗余信息,保留大部分細(xì)節(jié)。至于這些信息要不要在每次記憶調(diào)用時都拿出來,可以根據(jù)問題的復(fù)雜度靈活判斷。

      摘要確實是一個很重要的話題——記憶本身就是對原始數(shù)據(jù)的凝練,把它變成有用的 Context。要不要丟失、丟失多少,可以單獨設(shè)計模塊來提升性能。這也是記憶在落地業(yè)務(wù)場景后,結(jié)合數(shù)據(jù)反饋和垂直任務(wù),能慢慢形成壁壘的關(guān)鍵點。

      記憶的更新機(jī)制

      DeepTech:比如我今天想吃火鍋,下周腸胃不好不想吃了,這種個人偏好的變更,記憶能跟著更新嗎?

      余宣慶:有一種實現(xiàn)方式是直接找到原來的記憶存儲位置進(jìn)行更新,記錄一個版本的更新時間。下次檢索這個話題時就能得到最新信息。

      我們的方式是增量更新補(bǔ)充:你在什么時刻多了一個新的偏好,我把你過往每個時間點的偏好或事實都保存下來。召回時按時間線全部拎出來,再通過記憶體中的一個門控機(jī)制,判斷當(dāng)前問題的話題場景下,歷史偏好要不要利用。比如回憶偏好變化時,當(dāng)然要用到全部歷史;如果只是問“你當(dāng)前喜歡什么”,那原來喜不喜歡就不重要了。

      趙翔:記憶更新確實是很多 Memory 框架的一個大痛點。比如以前的 RAG,想對一個特定記憶進(jìn)行更新其實非常難,因為它是模糊匹配,召回的東西不一定是你想要的。

      我們引入了一個顯式的時間軸,所有進(jìn)來的對話或多模態(tài)證據(jù)都先和時間軸進(jìn)行錨定,先錨定一個物理的具體輸入時間,然后再進(jìn)行語義抽象建立認(rèn)知層。這樣首先做到可追溯。狀態(tài)更新方面,我們也是做累加的,只不過會把失效的記憶標(biāo)記為“invalid”,在新的記憶上標(biāo)注“valid at”某個時間。后期需要追溯或修改某個記憶時,也是根據(jù)時間定位到具體的注入點,然后去更改它的認(rèn)知 Summary。

      記憶的強(qiáng)化與遺忘

      DeepTech:人類學(xué)習(xí)中,隨著不斷鞏固某個知識,記憶會被強(qiáng)化,能更快調(diào)出來。AI Memory 能實現(xiàn)類似的強(qiáng)化和反思嗎?

      余宣慶:如果在 AI 的 Memory 機(jī)制里,某篇課文已經(jīng)以 Knowledge 的方式存儲過了,對 AI 來說回憶就不是難事,幾乎每次都能召回所有細(xì)節(jié)。這和人類不同,人類必須通過不斷反思強(qiáng)化來加深記憶,把短時記憶變成長期記憶。

      但在 AI 中,你每次反思加工產(chǎn)生的新內(nèi)容,比如哪些地方要關(guān)注、前后篇章的邏輯關(guān)聯(lián),這些會作為增量更新補(bǔ)充到記憶中。這些相關(guān)內(nèi)容在記憶總量中的占比會越來越高。下次用 Top K 方式召回時,它原來可能只占三分之一,后面就變成三分之二了。大模型在回答時自然就會給予更多注意力。

      同時,如果每次召回加上反思經(jīng)驗一起拼接后,對下游任務(wù)有正向反饋,我們就可以給它加權(quán)重,不斷提升。召回排序是綜合性的,通過時間、相似度、成功帶來的置信度做融合排序。

      趙翔:我們也是類似的方案。我們有一個綜合權(quán)重的 Ranking 體系,里面有很多權(quán)重分?jǐn)?shù),比如關(guān)注度、BM25 等,綜合成一個 Score。其中一個很重要的點是:當(dāng)這個節(jié)點被反復(fù)提及或反復(fù)被召回時,我們會對它的 Importance 進(jìn)行更新,把重要性拉起來。這樣它在排序中的位置就會非??壳?,只要提到它的次數(shù)足夠多,每次召回時它就會排第一。通過排序來實現(xiàn)記憶的增強(qiáng)和鞏固。

      反過來,也可以通過這種方式實現(xiàn)遺忘,這是一種 TTL(Time To Live)的功能。如果一個記憶經(jīng)常未被召回,激活時就會顯示出非常低的分?jǐn)?shù)。我們會通過異步掃描去檢查這些長期未被激活的節(jié)點,對它進(jìn)行清理,模擬人類的遺忘曲線。

      余宣慶:我再補(bǔ)充一個思路。我之前有一份工作叫“在線式神經(jīng)符號融合增強(qiáng)事件預(yù)測(ONSEP)”,其中設(shè)計了一個動態(tài)因果挖掘的規(guī)則學(xué)習(xí)器。我們用規(guī)則集來補(bǔ)充檢索器自身的能力。

      具體來說,關(guān)注原因和結(jié)果事件的發(fā)生——如果某個原因被反復(fù)提及,或者對結(jié)果的預(yù)測和推理有正向作用,我們就會用 AI 的反思能力總結(jié)出一條規(guī)則:這個原因可能導(dǎo)致這個結(jié)果,標(biāo)注一個置信度,存在規(guī)則集合里。下次召回記憶時,用規(guī)則集去海量歷史中優(yōu)先查找,這些原因事件就通過規(guī)則這種顯式方式加強(qiáng)了權(quán)重。規(guī)則的置信度和數(shù)量都可以隨時間更新。

      AI 記住了,但能遵守嗎?

      DeepTech:我們在日常使用 AI 時,會發(fā)現(xiàn)它很難完美遵循它之前的承諾。比如我們告訴 AI“這個你一定要記住”,雖然很早之前 ChatGPT 就推出了記憶功能,但在需要召回時,它是很難完美記住的?,F(xiàn)在的技術(shù)能解決嗎?

      余宣慶:這個問題的本質(zhì)是記憶機(jī)制、記憶鞏固天然會帶來一定的細(xì)節(jié)損失。一個好用、可靠的記憶體,一定需要意圖識別能力。我們到底是要對某個話題做摘要,還是要原封不動地記住所有內(nèi)容?需要有路由策略,可以歸到 Knowledge,可以歸到長期記憶做結(jié)構(gòu)化事件保存,也可以定義成規(guī)則。你要求它記住的可能是某個業(yè)務(wù)規(guī)則、必須做什么或不準(zhǔn)做什么。我們可以把它歸類到 Rules 這一欄,盡量保留所有細(xì)節(jié),在召回時做事件觸發(fā),把內(nèi)容填充到上下文中。

      趙翔:我們的處理思路也不復(fù)雜。AI 本身是概率性的發(fā)散,每次輸出可能不太一樣。但用戶會明確表達(dá)一個偏好,這次輸出好或不好,或者要求它記住某件事。這本質(zhì)上是一個 User Preference 的問題。所以我們會維護(hù)一個 User Preference 的 Schema 和 Profile,在召回時做條目召回,作為 AI 自我遵循的補(bǔ)充。

      我們在存儲原始證據(jù)層時,因為證據(jù)層是可審計的,每輪 Turn 都會掛進(jìn)去。召不回的時候,其實可以召回到用戶和 AI 每一輪對話的細(xì)節(jié)。我們實現(xiàn)了一個五路并行 Retrieval,除了 RAG 檢索,還有圖檢索、時間序列檢索、實體節(jié)點檢索,以及證據(jù)層檢索,分別命中。在測試中,當(dāng)證據(jù)層召回打開的情況下,AI 是可以完整回顧自己那段對話中的承諾的。

      余宣慶:我再補(bǔ)充一點。我認(rèn)為大部分記憶框架缺少一個“記憶的指導(dǎo)器”。記憶體更多是一個多模塊協(xié)同的系統(tǒng),需要各司其職,意圖識別、記什么類型、記多少、要不要記、什么時候記。我們設(shè)計了一個元記憶的指導(dǎo)器,來調(diào)控各種不同的記憶組織結(jié)構(gòu)應(yīng)該怎么記。另外,記憶和大模型的組織問題目前有點解耦,技術(shù)本身怎么記、應(yīng)用場景的用戶反饋、是否真正影響到了下游結(jié)果,這幾方面分別在推進(jìn)。整個記憶領(lǐng)域的基準(zhǔn)測試集也還不夠全面,未來會有一個融合和產(chǎn)品化的進(jìn)展。

      當(dāng)前技術(shù)面臨的挑戰(zhàn)

      DeepTech:目前記憶技術(shù)還有哪些未解決的挑戰(zhàn)?準(zhǔn)確性和幻覺、關(guān)聯(lián)性和推理性、過擬合、容量和效率的上限等等。

      余宣慶:任務(wù)目標(biāo)的識別感知、記多少記什么的評估、召回的內(nèi)容是否真正有用以及如何評估,這些方面都還需要研究。比如召回的到底應(yīng)該是細(xì)節(jié)、概念還是模糊的摘要片段,它們?nèi)绾侮P(guān)聯(lián),要不要結(jié)合用戶 Query 做重寫再給到下游模型。另外,當(dāng)前對記憶的評估更多聚焦于幻覺和檢索準(zhǔn)確性,但對于人機(jī)交互場景來說,是否深度理解了用戶、全面的用戶畫像能力,這方面也需要被討論和關(guān)注。

      趙翔:我補(bǔ)充一些我們在開發(fā)中遇到的具體挑戰(zhàn)。首先是上下文信息是否完整、是否全面,它本身是對對話文本的抽象和原始證據(jù),所以存在一個 Token Efficiency 的問題:怎樣用盡量精準(zhǔn)且少量的 Token 去模糊匹配到用戶當(dāng)時的上下文。

      對應(yīng)用側(cè)來說,Token Efficiency 就是成本的重大衡量。你可以提高 Top K 來達(dá)到更高的準(zhǔn)確率,但降低 Top K 實現(xiàn) Token 效率后準(zhǔn)確率就會下降。這是一個權(quán)衡問題。

      另外是垂直場景的定制化。當(dāng)我們嘗試構(gòu)建通用 AI Memory 時,一些非常具體的場景,例如陪伴、醫(yī)療、法律,它們各自可能有一類特定的記憶需求,和業(yè)務(wù)深度綁定。在通用記憶基礎(chǔ)能力之上,如何滿足各個垂直場景的高度專業(yè)化或定制化需求,這也是持續(xù)的挑戰(zhàn)。

      行業(yè)應(yīng)用:從知識庫到記憶

      DeepTech:除了聊天和個人 Agent,金融、醫(yī)療、客服這些垂直行業(yè)已經(jīng)用上 AI Memory 了嗎?

      趙翔:真正嚴(yán)肅的金融、醫(yī)療、客服場景里,大概率還是用 RAG——把話術(shù)或知識庫切分,RAG 召回作為數(shù)據(jù)庫。真正使用 AI Memory 的話,比如和醫(yī)生或個人專家實現(xiàn)強(qiáng)耦合,記憶就必須是可審計的。不能是 RAG 里那種模糊匹配加排序——隨機(jī)性很高,不可控,隨著向量庫膨脹、圖膨脹,召回噪聲的概率越大,正確 Ranking 的概率就越低。所以必須可治理、可審計。這也是我們特意引入時間和證據(jù)這兩個層級的原因。

      不過要真正和醫(yī)療、金融這種極其嚴(yán)肅的場景耦合,還需要更細(xì)致的工程。比如現(xiàn)在有一種叫 Skill 的方式,本質(zhì)上也是上下文或 Few-shot,通過逐步暴露來降低 Token 占用率,先只讓 AI 看到標(biāo)題和功能,里面的細(xì)節(jié)先不暴露。后續(xù)在專業(yè)場景中,Memory 可能會落到用戶 Preference 或工作中 Skill 的收集和構(gòu)建上來。

      余宣慶:我補(bǔ)充一下。我們關(guān)注了很多智能體對自身記憶的場景——現(xiàn)在智能體已經(jīng)從聊天機(jī)器人走向可以執(zhí)行任務(wù)、動手做事的工作伙伴。它對于自身在某個任務(wù)目標(biāo)下的工具調(diào)用編排的記憶,以及在成功或失敗中能否提煉經(jīng)驗、下次運用經(jīng)驗的能力,這是我們在關(guān)注的。

      比如我們有一個工業(yè)場景:焊接工藝參數(shù)生成。讓焊接機(jī)器人更好地適應(yīng)新的焊接目標(biāo)任務(wù),結(jié)合圖像識別得到工藝參數(shù)。這個過程中往往需要一個工藝專家站在邊上反饋參數(shù)是否合理。這種反饋很難僅僅靠 RAG 或外部知識圖譜作為靜態(tài)知識來沉淀。我們認(rèn)為未來要做到人類知識的蒸餾,把人在交互過程中反饋的審美判斷、一系列 Approve 事件,變成 AI 可以沉淀的 Skills 或 Rules,成為個性化或組織個性化的經(jīng)驗。

      另外在教育陪伴、養(yǎng)老等場景,教育方面的因材施教,例如學(xué)生學(xué)習(xí)某個知識的風(fēng)格和理解方式能不能通過一次測試反饋后自主調(diào)控?陪伴和養(yǎng)老場景則更關(guān)注情緒,比如什么事件激發(fā)什么興趣。這些都需要在業(yè)務(wù)適配時調(diào)控記憶關(guān)注的點,設(shè)計專門的 Schema 來告訴系統(tǒng)應(yīng)該記什么方面的內(nèi)容。

      挑戰(zhàn)一是能否理解這些業(yè)務(wù)場景的目標(biāo)任務(wù),二是推理響應(yīng)速度能否加強(qiáng)。因為多模塊協(xié)同的記憶體中,簡單的壓縮可以用小模型,但高層次的抽象信息提煉或 SOP 提煉可能需要大模型,而大模型又非常慢。能否把大模型的能力注入到某個記憶小模型里,也是我們在探索的方向。

      個人記憶會“污染”知識庫嗎?

      DeepTech:比如說金融從業(yè)者或醫(yī)療人員把自己的知識沉淀為記憶后,這些記憶會轉(zhuǎn)化到知識庫里嗎?轉(zhuǎn)化之后會不會污染知識庫?

      趙翔:知識庫和記憶的區(qū)別在于:記憶和人是強(qiáng)綁定的。在專業(yè)場景里,通用底座模型的知識在任何領(lǐng)域都已經(jīng)觸達(dá)人類邊界了,它知道的肯定比你多。

      人在這里起的作用是什么?是怎么去調(diào)用這些知識,在一個非常具體的場景或崗位里,通過沉淀下來的經(jīng)驗和技巧把工作流組織起來。但這個事情現(xiàn)在也受到了 Skill 的挑戰(zhàn)。我們內(nèi)部經(jīng)常討論:如果一個公司強(qiáng)制要求每個員工把工作經(jīng)驗和邏輯全部沉淀到文檔里作為 Skill,那這個人是不是就隨時可被 AI 替代了?

      對于垂直場景來說,通過個人的工作經(jīng)驗反饋、工作文檔、對話甚至文件,可以沉淀出一個 Skill 節(jié)點,按層級先只暴露一個摘要,再往下是類似 Schema 的模板,把整個經(jīng)驗沉淀下來。這其實是從個人的零碎情景記憶,轉(zhuǎn)向高度抽象、高度凝練、高度專業(yè)化的經(jīng)驗知識。在通用底座之上,各個垂直場景可以有專業(yè)化的 SDK 或 ADK。

      余宣慶:可以理解為一個場景的適配器,拼在模型外面作為單獨一層。

      至于幻覺問題——專家經(jīng)驗反饋中如果有某次的錯誤操作注入了不相關(guān)的記憶或錯亂的 Skill——我覺得需要持續(xù)監(jiān)控在應(yīng)用場景中的效果。通過環(huán)境交互的反饋,理解記憶帶來的效果是否有效。如果它導(dǎo)致了失敗,通過類似強(qiáng)化學(xué)習(xí)的機(jī)制,它就會被擠到l候選列表下面去,慢慢被遺忘掉。

      To B 還是 To C?

      DeepTech:AI 的產(chǎn)業(yè)化上一直有 To B 和 To C 之爭。兩位怎么看 AI Memory 在這方面的前景?

      余宣慶:記憶更多可能帶來體驗升級。很多陪伴類產(chǎn)品或兒童 AI 玩具場景,購買意向可能很高,但留存率是否滿意?我看到一些玩具類產(chǎn)品說自己有記憶,實際上就是把所有交互數(shù)據(jù)壓縮成了 1000 字,很淺,沒辦法實現(xiàn)深度的長期記憶。

      人在 C 端場景有一個社交底層需求:我真正被看到了,我的內(nèi)在好的一面、不好的一面都被關(guān)注到了。如果 AI 能在我需要幫助時回憶到那些點,提供真正深度有用的建議,這種情緒價值,C 端消費者是愿意買單的。

      B 端則更關(guān)注生產(chǎn)力效率提升。銷售客服場景大家都愿意花錢獲得更多客單,代碼或?qū)懽鬟@種直接產(chǎn)出內(nèi)容的商業(yè)化場景,做一些記憶提效更容易落地。

      趙翔:我覺得最終還是 To C。哪怕我們把 C 分成個人開發(fā)者(小 B 或小 C),目前 To B 其實是一個介質(zhì),我們的 Memory 作為一個相對底層的 Infrastructure 能力,To B 的話 B 還是要把這個能力接到它上面面向 C。最終場景還是面向 C,因為 Memory 本身是一個高度個性化的東西,以用戶為中心,對用戶的記憶或 Life Context 進(jìn)行托管。只不過前期在哪些 B 端場景或 C 端場景先商業(yè)落地,這可能是路徑問題??赡芮捌谙?To B,但最終一定面向 C。

      余宣慶:我個人認(rèn)為,記憶這件事更多是面向 Agent 的。這個 Agent 可以是組織創(chuàng)建的,也可以是個人創(chuàng)建的,服務(wù)于人或者企業(yè)內(nèi)部的數(shù)字員工。服務(wù)形態(tài)和商業(yè)模式可以分開來看。

      B 端更愿意付費的場景,除了高價值的生產(chǎn)創(chuàng)作和銷售場景,還有組織經(jīng)驗的沉淀。我們自己團(tuán)隊在探索如何更好地使用 Claude Code 或 Agent。用得好的人能在站會上分享使用經(jīng)驗,但現(xiàn)在還需要用口頭方式溝通、寫文檔做示范教學(xué)。如果這些經(jīng)驗?zāi)苤苯颖?AI 記住,然后另一個同事的 AI 在做類似任務(wù)時直接運用,那就直接提效了。作為組織負(fù)責(zé)人,我非常愿意為這個買單。把員工和 AI 的交互沉淀下來,這是一個非常有商業(yè)想象空間的場景。

      隱私與信任

      DeepTech:企業(yè)愿不愿意把交互記憶托管給第三方?用戶愿不愿意把隱私托管給 Agent?

      余宣慶:落地推進(jìn)時確實會遇到顧慮。我們從技術(shù)層面要做數(shù)據(jù)加密,更重要的是以數(shù)據(jù)主權(quán)為中心,用戶的記憶能不能全部導(dǎo)出歸自己所有,像 U 盤 一樣可插拔地在各個新產(chǎn)品上使用。對企業(yè),也可以提供本地化部署方案。

      趙翔:這是我們都要面對的問題。To B 客戶非常在意把數(shù)據(jù)留在自己公司。我們在架構(gòu)設(shè)計時就考慮了數(shù)據(jù)庫和 Service 之間的可解耦,對于隱私要求極高的大 B 企業(yè),數(shù)據(jù)庫可以自行托管和加密,Memory 的抽取、建圖等 Service 從我們這邊走。

      對 C 端來說,我們主打的是用戶的記憶托管平臺,“一處記住,處處可用”。用戶在聊天過程中把信息放在這邊,通過跨平臺、跨 AI、跨 Agent 的交互,降低溝通成本,為每一個 AI 構(gòu)建熟悉感和偏好了解。

      余宣慶:當(dāng)然,當(dāng)我們提供的提效價值或解決剛需的價值超過了數(shù)據(jù)隱私顧慮時,客戶其實不一定以此作為決策的阻塞點。實踐下來,有些公司本地本來就有留存,只需要數(shù)據(jù)價值和服務(wù)穩(wěn)定性就夠了。

      記憶孤島與遷移成本

      DeepTech:當(dāng) AI Memory 沉淀到某一家公司的產(chǎn)品里,記憶遷移成本一定很高,就像微信的社交關(guān)系一樣形成壁壘。未來會出現(xiàn)基于個人數(shù)據(jù)的新壟斷嗎?

      趙翔:你說的其實就是“記憶孤島”。比如我和 Claude 聊了很重要的東西,但覺得回答不好想換成 GPT,這個遷移成本就很高,得一個對話框打開,一個復(fù)制粘貼。

      我們做 Memory 上云、上 SaaS 托管,就是要去中心化,解決記憶孤島問題。大廠天然有壁壘,它們自身就是一個中心、一個孤島,數(shù)據(jù)都在它們里面,和其他生態(tài)不互通。我們作為第三方記憶托管平臺,任何支持 MCP 或通過幾行代碼接入我們記憶功能的 Agent,都實現(xiàn)了去中心化。用戶在一個 Agent 里形成的記憶,可以帶著它隨處遷移,是可插拔式的。

      余宣慶:另外,記憶導(dǎo)出目前還沒有建立行業(yè)標(biāo)準(zhǔn),導(dǎo)出的形態(tài)是什么?每家的記憶框架不同,導(dǎo)出數(shù)據(jù)對原框架可能非常好用,對別的框架可能就不那么適配了。這件事需要行業(yè)討論。

      不過我們也可以看到,這和之前筆記類、日記類軟件的問題類似,比如 Flomo 這樣的碎片化記憶管理工具,容量到了上限就得開 Pro,導(dǎo)出到本地也沒地方導(dǎo)入。這其實慢慢形成了社區(qū)壁壘。

      趙翔:用戶經(jīng)過冷啟動后,確實會慢慢形成壁壘。從生態(tài)角度講,積累大量用戶的依賴和粘性,可以反過來倒推開源 Agent 或 Agent 開發(fā)者來接入你的 Memory 能力,形成生態(tài)。

      為什么大廠都在做硬件?

      DeepTech:既然聊到了個人化,為什么現(xiàn)在大廠都扎堆做 AI 硬件?

      余宣慶:智能硬件可以隨身攜帶、一鍵觸發(fā),降低了打開手機(jī)、打開 App 再點按鈕的流程。它帶來的體驗效率升級讓我們越來越“懶”,比手機(jī)打開應(yīng)用的某個功能要便捷。

      趙翔:有點類似以前互聯(lián)網(wǎng)時代大家都開發(fā) App 以此為中心。現(xiàn)在越來越 AI Native,大家在探索一種新的人機(jī)交互范式,盡量繞開屏幕式交互,通過耳夾、眼鏡等硬件降低人和 AI 服務(wù)的交互成本。

      DeepTech:今天也看到新聞?wù)f蘋果要開發(fā)一個帶兩個麥克風(fēng)、一個攝像頭的胸針產(chǎn)品。AI Memory 肯定可以和智能眼鏡、智能座艙、機(jī)器人這些有頻繁交互的設(shè)備結(jié)合,成為大腦端非常重要的倉庫。

      趙翔:是的。我們之前就想從全模態(tài)開始做,考慮的和您說的一致。無論智能配件、機(jī)器狗、陪伴玩具,本質(zhì)上都在探索和人類直接交互的范式。這些范式的核心點就是必須克服“有狀態(tài)”的問題,智能眼鏡得記住它看到的東西,陪伴機(jī)器人得記住它做過什么和要做什么。所以我們一開始就以全模態(tài)為底座,目前能夠支持視頻、音頻和文本,全部在一張圖上做下來。

      余宣慶:大廠戰(zhàn)略上考慮硬件,一是從交互層面提高效率,二是搶占入口——GUI 可能慢慢被新的交互形態(tài)替代。我們也非常歡迎硬件廠商和我們的記憶體進(jìn)行合作。我們自己也探索過 C 端產(chǎn)品——時間管理和規(guī)劃助手,通過對話拆解任務(wù),結(jié)合歷史偏好經(jīng)驗做預(yù)測。高頻、高價值、有粘性的場景如果有硬件形態(tài),集成一些細(xì)分功能,就是很好的創(chuàng)業(yè)方向。

      Token 消耗與持續(xù)運行

      DeepTech:像智能眼鏡一直戴在臉上工作十幾個小時,Token 消耗量會很大,而且更多是圖像處理。

      趙翔:這在以前 CV 領(lǐng)域其實也有解決方案。視頻每秒 30 幀,但一天中以攝像頭或眼鏡為例,可能 80% 甚至 90% 的幀是靜止的。可以對幀進(jìn)行去重,只獲取那些有價值的幀。這個技術(shù)在 CV 時代已經(jīng)相對成熟了,我們做記憶時也是這樣。

      余宣慶:在云端上面可以探索更高效的模型來處理壓縮,終端設(shè)備利用到的數(shù)據(jù)可能是“夠用的低分辨率”就可以了。另外能否把計算分布式放到硬件端,用端側(cè)小模型處理,也是一個方向。Token 成本、模型進(jìn)化、硬件計算設(shè)備都在進(jìn)化,關(guān)鍵是什么時候進(jìn)入這個賽道把產(chǎn)品打磨出來。

      比如現(xiàn)在有些眼鏡已經(jīng)在識別哪些重要場景值得記錄然后才開始拍攝。有了記憶體后可以先保存到 App 端,聯(lián)網(wǎng)環(huán)境下用戶不需要那么實時感知時再處理。如果需要實時輔助當(dāng)前決策,也可以先用工作記憶在上下文窗口里實現(xiàn)。

      數(shù)字人格:會替代我嗎?

      DeepTech:今天上午和實習(xí)生聊天,他會有恐懼——未來會不會出現(xiàn)一個數(shù)字人格把我替代掉?AI 有了我的記憶之后,會變成另一個“我”嗎?

      余宣慶:數(shù)字分身其實是一個很高效的場景。在咨詢服務(wù)或客服領(lǐng)域,讓知識服務(wù)不再是一對一的、每次消耗腦力的。一個心理咨詢師、法律咨詢師,學(xué)了這么多年知識,一次只能服務(wù)一小部分人,效率很低。如果能通過帶有記憶和經(jīng)驗的數(shù)字分身作為專家模型,幫你提供給其他 Agent 或人類服務(wù),產(chǎn)生被動收入,我覺得這是一個很看好的新商業(yè)模式。但你要不要授權(quán)、給它的行動范圍和參與場景做什么限制,主動權(quán)和控制權(quán)還是留在用戶自己手上。

      趙翔:最近確實讓我感覺到這個趨勢。如果通過 Skill 把每個人的崗位職責(zé)固化,某種程度上大部分人其實在做相對固定的事情,如果真能固化到 Skill 里,我覺得確實可以替代。

      數(shù)字人格這個東西后面肯定會慢慢出現(xiàn)。如果能把一個人的各種行為偏好、思想記憶以高帶寬的 Embedding 空間形式無損傳給模型,模型可以模仿他的所作所為和思想。但目前來看,在非持續(xù)學(xué)習(xí)的形態(tài)下還很難替代,因為模型本身是被動響應(yīng)的。

      不過我想提到一個有意思的東西,之前 Google 可能提了一個叫 HOPE 架構(gòu)的 continue learning ,在人和 AI 交互過程中不斷更新,先是工作記憶,再慢慢傳遞到內(nèi)部,類似于快羅盤和慢羅盤之間的傳遞,緩慢更新自己的權(quán)重。他們甚至給這種模型起了個名字叫 Live Model 活體模型。當(dāng)模型能夠?qū)崿F(xiàn)熱權(quán)重更新和活體化時,可能真的會有一些主動性。再結(jié)合 Skill 沉淀和 Personality,也許真的能替代人。

      但也不需要害怕。當(dāng)生產(chǎn)力極大豐富的時候,也許就是按需勞動、物資極大豐盛的時代——暢想一下而已。

      余宣慶:目前的 AI 不能完全模仿人類。人類在持續(xù)學(xué)習(xí),有從自己做過的事情中反思提煉經(jīng)驗的學(xué)習(xí)能力。更重要的是主觀能動性——有意志、有沖動去打破現(xiàn)狀。這種內(nèi)在動機(jī)是目前 AI 很難模仿和復(fù)刻的。

      趙翔:對,主體性。這可能是一個倫理問題、社會倫理問題。

      總結(jié)

      余宣慶:今天我們從最新的記憶進(jìn)展聊到了記憶的分類、技術(shù)難點以及產(chǎn)業(yè)化。通過和趙總的討論,我學(xué)到了很多技術(shù)實現(xiàn)的不同路線和發(fā)展方向的思考。

      我們的太憶 TiMEM 認(rèn)知引擎,以時間區(qū)間分隔和分層的方式作為第一性原理來組織記憶,保證事件連續(xù)性和用戶畫像鞏固的穩(wěn)定性,再上升到從中高效提煉經(jīng)驗性內(nèi)容來服務(wù) Agent 的自我增強(qiáng)。商業(yè)化場景不只 C 端,主要面向 Agent,它可以是任何組織或個人創(chuàng)建的,服務(wù)形態(tài)可以根據(jù)垂直場景適配。未來要學(xué)會任務(wù)感知、目標(biāo)感知,與實際工作場景結(jié)合。關(guān)于數(shù)字分身,我的判斷是一定要把主權(quán)交給人類和 IP 本身,否則就會失控。

      趙翔:今天我們從 AI Memory 的概念一直聊到很細(xì)的技術(shù)問題,再到行業(yè)趨勢展望。我們現(xiàn)在已經(jīng)通過 STKG(時空知識圖譜)的手段實現(xiàn)了比較好的效果,在 LongMemEval 等基準(zhǔn)上打了比較好的榜。

      對于未來的展望,我們也有一些深入思考?,F(xiàn)在在嘗試做一個潛空間(Latent Space)注入回憶的形式——文本作為載體,人類語言的帶寬其實相對較低。Embedding 思想很重要:如果能把非常密集的獎勵信號和 Memory 壓縮到稠密向量空間,雖然人看不懂、大模型可能也不完全懂,但如果能映射到 Embedding 交給模型做潛空間交流,這將是非常有意義的事情。這也是我們正在做的,可以期待一下。

      DeepTech:非常感謝兩位老師的深度對談,也感謝大家的收聽。關(guān)于本期內(nèi)容,歡迎在評論區(qū)和我們交流。

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      伊朗用血淚換來的教訓(xùn):一旦中美開戰(zhàn),中國必須首先鎖定這一點

      伊朗用血淚換來的教訓(xùn):一旦中美開戰(zhàn),中國必須首先鎖定這一點

      冷峻視角下的世界
      2026-02-20 07:45:35
      齊白石贈毛主席一幅老牛畫,飲酒后欲搶回,毛主席:上面有我名字

      齊白石贈毛主席一幅老牛畫,飲酒后欲搶回,毛主席:上面有我名字

      歷史龍元閣
      2026-02-18 08:15:07
      WTT新加坡大滿貫:日本首日6人晉級2人出局!全國亞軍輸美洲選手

      WTT新加坡大滿貫:日本首日6人晉級2人出局!全國亞軍輸美洲選手

      全言作品
      2026-02-22 20:50:17
      1957年,韓先楚拒絕當(dāng)福州軍區(qū)司令員,毛主席震怒:你不去也得去

      1957年,韓先楚拒絕當(dāng)福州軍區(qū)司令員,毛主席震怒:你不去也得去

      南書房
      2026-02-22 07:25:13
      斯諾克球員錦標(biāo)賽:趙心童對陣希金斯?fàn)幑?,直播進(jìn)行中

      斯諾克球員錦標(biāo)賽:趙心童對陣希金斯?fàn)幑冢辈ミM(jìn)行中

      風(fēng)風(fēng)拒絕焦慮
      2026-02-22 21:45:33
      林詩棟3-1!王皓立大功,王曼昱轟11-1,3-0開門紅,2人爆冷出局

      林詩棟3-1!王皓立大功,王曼昱轟11-1,3-0開門紅,2人爆冷出局

      體育就你秀
      2026-02-22 15:44:28
      航天英雄王亞平有多重要?國家精兵貼身保護(hù),吃飯都有專供

      航天英雄王亞平有多重要?國家精兵貼身保護(hù),吃飯都有專供

      樂趣紀(jì)史
      2025-12-31 13:18:56
      以為只是小毛病,一查竟是晚期!做完所有治療,他還是永遠(yuǎn)離開了

      以為只是小毛病,一查竟是晚期!做完所有治療,他還是永遠(yuǎn)離開了

      新時代的兩性情感
      2026-02-18 08:36:45
      反常識?技術(shù)門檻很低的增程技術(shù),為什么越賣越貴?

      反常識?技術(shù)門檻很低的增程技術(shù),為什么越賣越貴?

      少數(shù)派報告Report
      2026-02-21 07:58:37
      特朗普定下訪華時間,中方先發(fā)制人亮一條紅線,高市早苗要難受了

      特朗普定下訪華時間,中方先發(fā)制人亮一條紅線,高市早苗要難受了

      一簌月光
      2026-02-22 07:12:40
      5位“老牛吃嫩草”的女星,個個有顏有錢,偏偏對小鮮肉愛不釋手

      5位“老牛吃嫩草”的女星,個個有顏有錢,偏偏對小鮮肉愛不釋手

      阿廢冷眼觀察所
      2026-02-21 20:03:32
      8萬塊電腦玩三角洲掉幀?助理吃回扣被實錘,大司馬卻選擇原諒他

      8萬塊電腦玩三角洲掉幀?助理吃回扣被實錘,大司馬卻選擇原諒他

      葉子豬游戲網(wǎng)
      2026-02-22 11:08:17
      臺島海峽發(fā)生激烈對峙,直10打開應(yīng)答器高速沖入,澳軍艦緊急避讓

      臺島海峽發(fā)生激烈對峙,直10打開應(yīng)答器高速沖入,澳軍艦緊急避讓

      頭條爆料007
      2026-02-22 13:42:26
      38歲梅西罕見暴怒!賽后沖裁判更衣室+蘇神拉都拉不住 聯(lián)盟將調(diào)查

      38歲梅西罕見暴怒!賽后沖裁判更衣室+蘇神拉都拉不住 聯(lián)盟將調(diào)查

      風(fēng)過鄉(xiāng)
      2026-02-22 16:02:32
      人不會無緣無故患糖尿?。⊙芯堪l(fā)現(xiàn):得糖尿病的人,離不開這5點

      人不會無緣無故患糖尿病!研究發(fā)現(xiàn):得糖尿病的人,離不開這5點

      醫(yī)學(xué)原創(chuàng)故事會
      2026-02-21 23:54:05
      GPU要涼?前英偉達(dá)AMD大神將AI刻在芯片上!17000 tokens/秒屠榜

      GPU要涼?前英偉達(dá)AMD大神將AI刻在芯片上!17000 tokens/秒屠榜

      新智元
      2026-02-22 17:05:04
      謝晉歐洲頭球梅開二度,15場8球7助1造點,足球小將又一人成才

      謝晉歐洲頭球梅開二度,15場8球7助1造點,足球小將又一人成才

      小金體壇大視野
      2026-02-22 19:17:38
      三峽能源創(chuàng)上市以來新低,大秦鐵路創(chuàng)四年新低,賽力斯創(chuàng)年內(nèi)新低

      三峽能源創(chuàng)上市以來新低,大秦鐵路創(chuàng)四年新低,賽力斯創(chuàng)年內(nèi)新低

      財經(jīng)智多星
      2026-02-22 16:02:14
      太強(qiáng)!41歲的詹姆斯還可能破自己生涯第一紀(jì)錄!

      太強(qiáng)!41歲的詹姆斯還可能破自己生涯第一紀(jì)錄!

      氧氣是個地鐵
      2026-02-22 21:09:10
      春晚15秒鏡頭封神!看哭3億人:她的美,還是被低估了

      春晚15秒鏡頭封神!看哭3億人:她的美,還是被低估了

      十點讀書
      2026-02-22 18:41:06
      2026-02-22 22:15:00
      DeepTech深科技 incentive-icons
      DeepTech深科技
      麻省理工科技評論獨家合作
      16302文章數(shù) 514637關(guān)注度
      往期回顧 全部

      科技要聞

      馬斯克:星艦每年將發(fā)射超過10000顆衛(wèi)星

      頭條要聞

      中國游客與貝加爾湖8死事故擦肩而過:曾踩過出事冰縫

      頭條要聞

      中國游客與貝加爾湖8死事故擦肩而過:曾踩過出事冰縫

      體育要聞

      自由式滑雪U型池 谷愛凌成功衛(wèi)冕

      娛樂要聞

      裴世矩養(yǎng)侄為刃 看懂兩次放行裴行儼!

      財經(jīng)要聞

      特朗普新加征關(guān)稅稅率從10%提升至15%

      汽車要聞

      續(xù)航1810km!smart精靈#6 EHD超級電混2026年上市

      態(tài)度原創(chuàng)

      房產(chǎn)
      家居
      數(shù)碼
      公開課
      軍事航空

      房產(chǎn)要聞

      窗前即地標(biāo)!獨占三亞灣C位 自貿(mào)港總裁行宮亮相

      家居要聞

      本真棲居 愛暖伴流年

      數(shù)碼要聞

      Omdia數(shù)據(jù):三星電子2025Q4重奪全球DRAM內(nèi)存市占第一

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      約旦基地美軍戰(zhàn)機(jī)驟增 包括F-35隱形戰(zhàn)斗機(jī)

      無障礙瀏覽 進(jìn)入關(guān)懷版