<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      梁文鋒推遲V4,是為了根治龍蝦的健忘癥?

      0
      分享至


      文章轉載于字母AI

      DeepSeek什么時候發V4?AI圈所有人都在猜,但正確答案可能只有梁文鋒知道。

      豆包、千問、元寶……無論大廠還是小廠,他們都在在春節期間扎堆發布新版本,生怕晚一步就被V4的光芒蓋過。

      換成任何一個正常的CEO,面對這種全行業翹首以盼的局面,早就把半成品推出去了。

      先占住聲量,再慢慢迭代,這是互聯網行業的基本操作。

      但梁文鋒偏不。跟他關系近的同行說了句大實話:“團隊穩,底子厚,不會草率發布。”

      外媒報道,V4是架構級重構。包含1萬億參數、百萬上下文、原生多模態,并且將于4月份發布。

      這次迭代的核心叫做LTM,Long-Term Memory,即長期記憶。

      LTM是一套在模型架構內部實現持久化記憶的系統。它能讓AI跨對話、跨任務地記住用戶是誰、聊過什么、偏好什么。像人一樣把重要的東西沉淀下來,而不是每次開機都從零開始。

      而這個能力,恰恰是OpenClaw最缺的東西。

      雖然OpenClaw可以替人干活,但它的記憶系統本質上只是往本地Markdown文件里寫筆記,工作時會持續發送這個筆記到大模型里,這就導致用OpenClaw越久,發送記憶所消耗的token就越多。

      整個社區都在想方設法地去解決這個問題,給它打補丁、裝插件、裝Skill,卻沒人能從根上解決問題,因為問題出在模型本身,它天生不記事。

      LTM要做的,就是從架構層把這個病治好。

      此次更新所帶來的挑戰,遠超常規的版本迭代,而且模型的情感交互、個性化記憶等模塊尚未完全遷移,還需要進一步調優。

      因此梁文鋒不是在拖延,而是在克制。

      在一個所有人都在比誰先發、誰聲量大的行業里,梁文鋒選擇等所有零件都對了再出手。

      R1之所以能一炮封神,靠的不是搶跑,而是一出手就讓對手無話可說。

      他顯然打算用同樣的方式對待 V4——要么不發,要發就是王炸。

      1

      梁文鋒到底在憋什么

      OpenClaw的爆火讓大家認識到了這樣一個事,當AI真的開始替人干活,模型對上下文的理解和記憶能力就不再是加分項,而是決定它能不能用的底線。

      一個記不住上文的agent,每隔幾輪就會重復犯錯、丟失任務狀態、忘記你剛才說過的話。

      所以過去兩年,業界也推出了不少的LTM方案。

      比如伯克利團隊在2023年提出的MemGPT,借鑒虛擬內存的思路,讓模型自己決定什么時候把哪些信息從外部存儲調入上下文窗口、什么時候換出去。

      2025年發布的Mem0,則是把這條路往工程化推了一步,在LOCOMO基準上比OpenAI內置記憶高出26%,token消耗減少90%,這也是現如今OpenClaw社區用得最多的記憶插件。

      前兩天還有用擴散激活模擬人類聯想式記憶提取的SYNAPSE,以及用遞歸語義壓縮解決記憶膨脹的SimpleMem。

      但所有這些方案都有一個共同的天花板,那就是它們都是在模型外部運行的中間件。

      記憶的提取、壓縮、檢索,全部由外掛系統完成,模型本身不參與。因此,記憶的質量完全取決于外掛系統的工程水平,模型得到的記憶,也就參差不齊。

      并且,所有記憶最終都要通過上下文窗口注入模型,這和OpenClaw碰見的問題一樣,記憶越多,那么token成本也就越高。

      還有一點,模型無法在外掛記憶上進行“學習”。因為在這個過程中,模型做的事情是在讀別人幫它整理好的筆記,而不是真的把經驗內化成了能力。

      梁文鋒要走的,很可能是一條完全不同的路。


      從梁文鋒署名的Engram論文和V4架構泄露來看,DeepSeek的方向不是在模型外面搭記憶系統,而是把記憶能力直接嵌入模型架構本身。

      Engram已經證明,在Transformer內部可以開辟一塊專用的條件記憶空間,用O(1)的哈希查找來存取靜態知識,在調用已存好的知識時,還不占用上下文窗口的容量,也不增加推理的計算成本。

      更關鍵的是,Engram 的“無限記憶機制”實驗表明,這塊記憶空間的容量可以近乎無限地擴展,且模型的推理開銷保持恒定。

      我說得再直白一點,現在的模型想“記住”一件事,唯一的辦法是把它塞進對話窗口里,窗口滿了就得扔東西。

      Engram相當于給模型裝了一塊獨立的硬盤,你可以把記憶存在這個外部的存儲里,就不用堆在你電腦本身的硬盤中。當你想調取某一個記憶的時候,你把這塊硬盤接上就行。

      而且這塊硬盤理論上可以無限擴容,查找速度恒定不變。

      這條路如果走通,意味著 DeepSeek 跳過了整個“外掛記憶”的技術范式,直接進入了“原生記憶”的時代。

      如果你了解OpenClaw,你會發現梁文鋒他瞄準的,恰恰是OpenClaw最薄弱的一環。OpenClaw讓AI有了手腳,卻沒給它一顆能記事的大腦。

      OpenClaw 的記憶系統有三個結構性缺陷。

      第一個是壓縮損耗。

      上下文窗口塞滿后,OpenClaw會自動把舊對話壓縮成一段摘要來騰空間。事實保留了,但對話的脈絡,全部丟失,而且不可逆。

      換句話說,你們在討論什么、決策的推理鏈條、語氣和優先級都沒有了,也都找不回來了。

      比如壓縮前,agent記得一套完整的調試方案,壓縮后只剩一句話,“用戶在調試一個bug”,具體的排查路徑全沒了。

      第二個是檢索失效。

      記憶文件用幾周就堆到幾百條,靠向量相似度檢索召回。可是向量檢索只能匹配語義相近的片段,無法理解條目之間的邏輯關系。

      比如說我用OpenClaw做了三個方案,這三個方案分散在不同文件里,和客戶敲定的是最后一個方案。當我后來想檢索敲定的方案時,由于這三個方案都是用來發給客戶的,就有可能只檢索命中第一個方案或者第二個方案。

      第三個是記憶容量有上限。

      OpenClaw的記憶分兩層:核心記憶(MEMORY.md)每次會話啟動時全量注入上下文,日志記憶則通過搜索工具按需召回。

      聽起來合理,然而核心記憶有硬性上限,單文件20000字符截斷,所有bootstrap文件合計不超過150000字符。

      可是你用得越久,MEMORY.md越長,要么被截斷丟信息,要么每次會話的token消耗線性增長。

      還沒完,日志那邊,按需檢索的質量完全取決于模型自己的判斷,它覺得不相關就不召回,哪怕信息確實存在。很容易就會把重要的信息給丟掉。

      說白了,這三個問題是同一件事:窗口就那么大,往里塞的東西越多,要么記錯,要么找不到,要么太貴OpenClaw的記憶不是“記住了”,而是“抄了一堆筆記然后翻不到”。

      如果V4真的在架構層面跑通了這條路,那它不僅解決OpenClaw的問題,還能讓模型變成“可成長的模型”。

      用得越久越懂你。這和當前所有大模型的使用體驗有本質區別,因為現在的模型無論多強,每次打開都是一張白紙。

      騰訊的一項最新研究,從另一個方向印證了這條路的價值。

      從OpenAI加入騰訊擔任首席AI科學家的姚順雨,在2月份的時候發布了他入職后的第一篇署名論文。

      論文的名字叫CL-bench,全稱Context Learning Benchmark,專門測一件事,就是大模型能不能從上下文里真正學到東西。

      不是考它背了多少知識,而是考它能不能從你給的材料里現學現用。

      結果很難看。

      所有前沿模型的平均正確率只有17.2%。正確率最高的模型是GPT-5.1,可它也只做對了23.7%。換句話說,你精心準備了一份詳盡的背景資料喂給AI,它有超過八成的概率沒有真正“學會”。

      姚順雨在論文中的判斷是,當前 AI與真正智能之間的鴻溝,不在于知識的多少,而在于學習的能力。一個裝滿知識卻不會學習的AI,就像一個背了整本字典卻不會寫作的人。

      他在AGI-Next前沿峰會上也說過類似的觀點,他認為大模型邁向高價值應用的核心瓶頸,就在于能否“用好上下文”。

      如何記憶,很可能成為2026年的核心主題。一旦上下文學習與記憶變得可靠,模型或許就能實現自主學習。

      梁文鋒不可能不懂這個道理,這就是為什么發布日期一推再推。

      1

      DeepSeek要補的課

      愿景歸愿景,現實歸現實。

      在梁文鋒閉關的這一年里,對手們沒有停下來等他。DeepSeek要補的課,比外界想象的多。

      第一塊短板是多模態,這也是最大的一塊。

      DeepSeek到今天為止,還是一個純文本模型。它沒辦法看圖、看視頻、聽語音。

      倒不是說DeepSeek完全沒有視覺能力。在今年1月的時候,他們發布了OCR 2,這是一個3B參數的文檔理解小模型。它的核心是用一個叫DeepEncoder V2的編碼器替代了傳統的視覺編碼器,讓模型能像人一樣按閱讀順序理解文檔頁面。

      僅在文檔解析的基準測試上,OCR 2用最少的視覺token戰勝了Qwen3-VL-235B這種千億級選手。

      但OCR 2只能做一件事:把文檔里的文字、表格、公式提取出來。本質上是“圖像→文本”的單向轉換,不是通用的視覺理解。

      換句話說,OCR 2證明了DeepSeek有能力做好視覺編碼,但從“能讀文檔”到“能看視頻、聽語音、理解自然場景”,中間隔著的不是一步,而是一整個技術代際。

      與此同時,其他大廠早就進入了“全模態”時代。

      字節的Seedance 2.0證明了優秀的多模態模型有多大的用戶基礎和商業潛力。GPT-5.4已經原生支持音頻、視頻和計算機操作。

      有消息透露,梁文鋒近半年的主要工作之一就是補齊視覺內容處理的短板。

      第二塊短板是agent能力。

      DeepSeek微信公眾號自己置頂的文章標題就是“邁向agent時代的第一步”,這就足以說明梁文鋒知道該往哪個方向前進。


      隨著越來越多的人開始使用OpenClaw,無論是大廠還是小廠,都在強調自己模型的agent能力。

      Kimi K2.5已經能自主調度100個子agent、并行處理1500個步驟。ChatGPT的agent功能可以自動填表、訂機票、跨網站拉取信息。Claude推出了Agent Teams,多個AI協同完成復雜任務。

      第三塊短板是AI編程。

      這是2026年發展最快、商業化最成熟的賽道。

      在編程基準測試SWE-bench Verified上,Claude Opus 4.6得分80.8%,GPT-5.3 Codex約80%,DeepSeek V3.2只有73.1%。

      在更難的基準SWE-bench Pro上測試,DeepSeek V3.2得分為40.9%,遠低于GPT-5.4的57.7%。

      更關鍵的是,行業已經從“Vibe Coding”,進化到了“Agentic Engineering”,讓AI獨立完成工程級任務。

      智譜的GLM-5論文標題就叫《From Vibe Coding to Agentic Engineering》,它能連續24小時跑代碼、700次工具調用、800次上下文切換,從零構建出一個GBA模擬器。

      此前曾有爆料稱,DeepSeek-V4的內部測試結果,在編程能力上超越了Claude Sonnet 3. 。可如今,Claude Sonnet 3.5已經被Anthropic官方完全停用了。

      第四塊短板是AI搜索。

      現在幾乎所有ChatBot產品都是聯網的,你已經見不到還把模型聯網單獨設為一個開關的APP了。

      OpenAI有ChatGPT Search,Google有Gemini Embedding 2搜索。DeepSeek的搜索能力一直是短板,而且其搜索結果經常會出現幻覺。

      Vectara的測試顯示,DeepSeek R1的幻覺率高達14.3%,是V3(3.9%)的近四倍。

      在學術引用檢索的測試中,這個數字更夸張,其引用的結果中,91.43%都是錯的,包括但不限于捏造論文標題、虛構DOI、張冠李戴作者。

      DeepSeek自己也承認,幻覺是當前階段“不可避免的”問題。

      DeepSeek在它沒有自己的搜索基礎設施,只能依賴第三方接口,信息源的質量不可控。

      模型本身的事實校驗能力不夠強,即使拿到了正確的檢索結果,也可能在生成環節引入錯誤。這兩個問題疊加在一起,就是用戶體驗上的“搜了也不準”。

      在agent時代,搜索不是加分項,而是必選項。

      DeepSeek的短板,沒有一塊是小修小補能解決的。梁文鋒不是在做一個更強的V系列模型,他是在同時打四場仗。

      4月,箭在弦上。但如果再跳票,也不必意外。對梁文鋒來說,“不發”永遠比“發錯”重要。

      點個愛心,再走 吧

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      又打起來了!以色列轟炸黎巴嫩,伊朗以牙還牙,停火協議變成廢紙

      又打起來了!以色列轟炸黎巴嫩,伊朗以牙還牙,停火協議變成廢紙

      壹知眠羊
      2026-04-11 07:30:03
      戴森,造了個丑東西...

      戴森,造了個丑東西...

      放毒
      2026-04-09 14:01:34
      中東停火還不到一天,美國就調轉槍口對準中國,F-35密集“壓境”

      中東停火還不到一天,美國就調轉槍口對準中國,F-35密集“壓境”

      小蔑談事
      2026-04-11 06:25:06
      重回世界第一!石宇奇兩局擊退奈良岡功大,鎖定亞錦賽四強席位

      重回世界第一!石宇奇兩局擊退奈良岡功大,鎖定亞錦賽四強席位

      全景體育V
      2026-04-10 16:36:28
      賭上自身國運!巴鐵欲促成美伊歷史性握手,一旦談崩后果不堪設想

      賭上自身國運!巴鐵欲促成美伊歷史性握手,一旦談崩后果不堪設想

      往后相濡以沫
      2026-04-11 05:47:13
      為什么WTO很少被提起了?中國入世談判花了15年,如今幾乎被架空

      為什么WTO很少被提起了?中國入世談判花了15年,如今幾乎被架空

      古史青云啊
      2026-04-07 14:52:09
      鄭麗文要簽署兩岸和平協議,蔣經國后終于出現第二個推動統一的人

      鄭麗文要簽署兩岸和平協議,蔣經國后終于出現第二個推動統一的人

      暮雪無痕
      2026-02-03 08:52:46
      千古仁君宋仁宗

      千古仁君宋仁宗

      尚曦讀史
      2024-10-06 07:39:06
      演員文章在上海開了一家陜西特色美食餐廳,熱情迎客態度謙和,女兒貼心幫忙宣傳

      演員文章在上海開了一家陜西特色美食餐廳,熱情迎客態度謙和,女兒貼心幫忙宣傳

      大象新聞
      2026-04-09 23:41:02
      為什么一堆人總覺得珠三角遲早被長三角超過?

      為什么一堆人總覺得珠三角遲早被長三角超過?

      夜深愛雜談
      2026-03-16 21:58:53
      單打八強出爐!國乒16人出局,男女單上半區均失守;日乒9人晉級

      單打八強出爐!國乒16人出局,男女單上半區均失守;日乒9人晉級

      莼侃體育
      2026-04-10 23:21:15
      80年代黃克誠當眾坦言:把歷史錯誤歸咎于毛主席身上,這很不公平

      80年代黃克誠當眾坦言:把歷史錯誤歸咎于毛主席身上,這很不公平

      大運河時空
      2026-04-10 17:15:03
      奔馳一季度全球銷量下滑6%,在華跌27%至11萬輛

      奔馳一季度全球銷量下滑6%,在華跌27%至11萬輛

      澎湃新聞
      2026-04-10 07:38:32
      廣東隊迎來1個好消息!焦泊喬結束了請假,回到了東莞

      廣東隊迎來1個好消息!焦泊喬結束了請假,回到了東莞

      體育哲人
      2026-04-10 21:15:34
      高市越賭越大,30國代表將至,日本干涉俄烏,人民日報提兩個必須

      高市越賭越大,30國代表將至,日本干涉俄烏,人民日報提兩個必須

      奧字侃劇
      2026-04-11 06:43:12
      五國決定出兵,大批我國產新型坦克大炮將參戰:上千美軍準備突圍

      五國決定出兵,大批我國產新型坦克大炮將參戰:上千美軍準備突圍

      幸運史冊
      2026-04-10 23:28:38
      勸告邱毅:不要在錯誤的道路越走越遠

      勸告邱毅:不要在錯誤的道路越走越遠

      論事的老樞
      2026-03-31 14:45:09
      “張雪是初中生,我是清華博士”:我們相互成就,學歷代表不了啥

      “張雪是初中生,我是清華博士”:我們相互成就,學歷代表不了啥

      江山揮筆
      2026-04-10 09:35:30
      吳尊帶 15 歲閨女拍雜志,遭網友吐槽:膈應人!父女倆顏值超高

      吳尊帶 15 歲閨女拍雜志,遭網友吐槽:膈應人!父女倆顏值超高

      情感大頭說說
      2026-04-10 07:32:46
      美軍官爆料:赫格塞思在清除異己!他非常危險,恐會引爆中美戰爭

      美軍官爆料:赫格塞思在清除異己!他非常危險,恐會引爆中美戰爭

      小噎論事
      2026-04-11 06:07:58
      2026-04-11 08:27:00
      硅星人 incentive-icons
      硅星人
      硅(Si)是創造未來的基礎,歡迎來到這個星球。
      2997文章數 10481關注度
      往期回顧 全部

      科技要聞

      馬斯克狂發大火箭也養不起AI 年虧50億美元

      頭條要聞

      推動停火 巴基斯坦被指取得近年來最大的外交勝利之一

      頭條要聞

      推動停火 巴基斯坦被指取得近年來最大的外交勝利之一

      體育要聞

      17歲賺了一百萬美元,25歲被CBA裁員

      娛樂要聞

      黃景瑜王玉雯否認戀情!聚會細節被扒

      財經要聞

      李強主持召開經濟形勢專家和企業家座談會

      汽車要聞

      搭載第二代刀片電池及閃充技術 騰勢N8L閃充版預售35萬起

      態度原創

      教育
      手機
      游戲
      公開課
      軍事航空

      教育要聞

      一年級壓軸題,全班都不會

      手機要聞

      三星 Galaxy Z Flip8 CAD 渲染圖曝光 外觀幾乎無變化

      任天堂獨占傳統不再!經典作品跨平臺引粉絲不滿

      公開課

      李玫瑾:為什么性格比能力更重要?

      軍事要聞

      特朗普:對美國與伊朗達成和平協議“非常樂觀”

      無障礙瀏覽 進入關懷版