![]()
去年7月,由于DeepSeek下載量從高峰期的8000多萬暴跌至2000多萬,下滑72.2%,“DeepSeek跌落神壇”就成為了當時互聯網最熱門的話題。
但據多位知情人士透露,DeepSeek即將重登王座。他們計劃在二月中旬發布新一代模型DeepSeek-V4。
也就是農歷2026年新年期間,距離上一代模型DeepSeek-R1的發布正好一年。
這次發布的重點是代碼生成和處理能力。
根據DeepSeek內部的基準測試,V4在編程任務上的表現超過了目前市場上的主流競品,包括Anthropic的Claude和OpenAI的GPT系列。
根據報道,在即將發布的新模型中,DeepSeek團隊解決了許多長期困擾AI發展的技術難題。很可能會徹底改變Vibe Coding產業。
01
報道中提到一件事,“DeepSeek-V4模型在整個訓練過程中理解數據模式的能力也有所改進,且性能未出現衰減。”
這句話有些難以理解,我們不妨拆開來解讀。
首先是前半句,它指的是模型不再只是死記硬背數據,而是能看透數據背后的規律和邏輯。
DeepSeek-R1有個具代表性的例子,就是讓模型數strawberry里有幾個r。
由于當時的DeepSeek模型并不能理解“數”(count)這個概念,只能根據訓練時的數據來輸出答案。可這個數據恰好又是錯的,所以無論DeepSeek怎么思考,它給出的答案大多數情況都是2,而不是正確的3。
![]()
而DeepSeek-V4則會徹底杜絕這個情況,前提是在訓練過程中,讓模型徹底理解某一件事情。
后半句的性能退化,指的是在AI訓練中,隨著模型不斷學習新東西或訓練時間加長,往往會出現“學了新的忘了舊的”或者模型變得不穩定的情況。
這種現象在業內被稱為“災難性遺忘”(Catastrophic Forgetting)或“模型坍塌”(Model Collapse)。
因此,V4在不斷變聰明、變復雜的過程中,依然保持了極高的穩定性和原有能力的完整性,沒有出現任何“副作用”或能力倒退。
這恰恰是構建編程Agent的前置條件。
在現代軟件工程中,一個微小的修改可能波及數個文件、數千行代碼的依賴關系。
但是以往的模型往往受限于上下文窗口或注意力機制的衰減,從而沒辦法對于龐大的項目進行修改。
V4極有可能是一個為“Agent時代”量身定制的模型。
一年前,DeepSeek-R1 的發布確實在行業內引起了不小的波動。那款主打推理能力的模型證明了低成本研發路徑的可行性。
然而一年后的今天,人工智能行業的關注焦點已經發生了顯著轉移。單純的文本生成或邏輯推理已不再是唯一的競爭高地,代碼生成正在演變為大模型能力的“試金石”。
在當前的開發環境中,“Vibe Coding”成為新趨勢,要求AI不僅能補全代碼,更能理解開發者的意圖流(Flow),實現從自然語言到復雜工程邏輯的無縫轉化。
DeepSeek似乎已經準備好在新賽道上狂飆了。
02
如果深入梳理DeepSeek團隊以及核心人物梁文鋒在R1發布之后這一年里的學術軌跡,我們會發現一條清晰且扎實的技術演進路線。
這些公開發表的論文與技術報告,不僅是對過去成果的總結,更是V4強大能力的注腳與預演。
2025年9月,DeepSeek-R1的相關論文成功登上了頂級學術期刊《Nature》的封面,梁文鋒署名通訊作者。
面對審稿人關于是否使用了OpenAI模型輸出進行蒸餾訓練的尖銳質疑,DeepSeek團隊在回應中給出了明確的否認,并首次公開了令人咋舌的低成本數據:從V3-Base訓練到R1,僅花費了29.4萬美元。
當然,這個成本僅指R1的后訓練階段成本,不包含V3-Base基礎模型本身約600萬美元的訓練投入。
數據公開后,以及《Nature》為此專門撰寫的社論,標志著DeepSeek在學術嚴謹性和技術原創性上獲得了國際最高認可,徹底洗刷了外界對于中國大模型“套殼”或“跟隨”的刻板印象。
不過,真正能佐證DeepSeek-V4在代碼方面有大幅突破的證據,是2025年最后一天,DeepSeek團隊發表的論文《mHC:流形約束超連接》。
代碼生成任務對模型的邏輯深度和上下文跨度有著極高的要求,這通常需要更大規模的模型參數和更深的網絡結構。
然而,傳統的超連接(Hyper-Connections)架構在模型規模擴大時,會面臨嚴重的信號增益問題,最終導致訓練過程極不穩定甚至崩潰。
為了解決這一阻礙模型擴容的根本性物理難題,DeepSeek團隊在這篇論文中提出了一種全新的架構mHC。
簡單來說,它給狂奔的信號加了一道精密的閥門,將信號增益嚴格控制在1.6倍左右。
論文數據顯示,在3B、9B乃至18B參數規模的模型測試中,應用了mHC架構的模型在BIG-BenchHard推理基準上提升了2.1%。
這項由梁文鋒聯合署名的研究成果,實際上解決了大模型在“做大”和“做復雜”過程中的穩定性難題。
這意味著V4模型極有可能采用了這種全新的架構,從而在擁有更龐大參數量和更深層推理能力的同時,依然保持了高效的訓練效率和極高的穩定性。
![]()
不僅如此,在2026年1月初,DeepSeek悄無聲息地將arXiV上的R1論文從原本的22頁大幅擴充至86頁。
這多出來的60多頁內容,詳盡地披露了R1的完整訓練管線,包括冷啟動、推理導向的強化學習(RL)、拒絕采樣與再微調、以及對齊導向的強化學習這四個關鍵步驟。
業界普遍推測,這種在春節前夕“清庫存”式的技術披露,往往預示著下一代更強大的技術已經成熟。
既然R1的技術細節已經不再是核心壁壘,那么即將到來的V4必然擁有了更高維度的護城河。
03
就在2026年的元旦,另一股來自量化界的力量也加入了戰局。
由九坤投資創始團隊發起成立的至知創新研究院(IQuestResearch),發布了名為IQuest-Coder-V1的開源代碼大模型。我們曾在文章《又是量化基金,第二個DeepSeek時刻到來了?》中對其進行了報道。
這支同樣出身于量化背景的團隊,他們僅有40B參數的模型,在SWE-benchVerified測試中斬獲了81.4%的高分,一舉達到了Claude和ChatGPT的水平。
而在Vibe Coding的戰場上,國內互聯網大廠的動作同樣不容小覷。
字節跳動的豆包在2025年初就推出了Trae編程工具,并在AI編程功能上實現了HTML預覽、Python運行和完整項目生成等能力,讓開發者可以在一個界面內完成從構思到部署的全流程。
阿里的通義千問則在12月26日更新到了Qwen Code v0.5.0版本。
此次更新的最大亮點就是支持在終端窗口中同時運行四個Qwen Code實例,可并行處理智能問答、實時翻譯、原型設計、創意繪圖等不同任務,實現了AI編程“跳出命令行”的突破。
不過,真正引發行業震動的,是豆包在硬件終端上的突破性嘗試。
2025年12月1日,字節跳動與中興通訊合作推出了搭載豆包手機助手的努比亞M153工程樣機,售價3499元,首批約3萬臺在當天迅速售罄,甚至在二手市場炒出了高價。
這款手機助手的核心能力在于跨應用操作。用戶只需用自然語言下達指令,AI就能自動跳轉多個應用完成點外賣、訂機票、比價購物等復雜任務。
這一系列動作背后,折射出的是AI大模型從云端走向終端、從工具走向入口的戰略轉型。
說不定DeepSeek手機也不遠了。
![]()
與此同時,資本市場也迎來了大模型行業的收獲季。
曾經歷過“百模大戰”喧囂的中國AI行業,正在加速向頭部收斂。智譜AI和MiniMax這兩家公司均已成功上市。
智譜是1月8日在港交所敲的鐘,發行價定在116.2港元/股,上市第一天就給了市場一個驚喜 —— 開盤120港元,收盤131.5港元,第一天就漲了13.17%,市值一下子沖到578.9億港元,成了 “全球大模型第一股”。
第二天開盤直接137.2港元起,收盤158.6港元,較首日收盤價又漲了20.6%,市值也跟著漲到698.21億港元,兩天下來從發行價算已經漲了快37%,完全沒給空頭機會。
MiniMax比智譜晚一天,但風頭更勁。發行價165港元/股,而且是頂格定價,上市前一天的暗盤就已經漲了25%-29%,報205.60-212.60港元。
上市當天開盤235.4港元,漲了42.7%,之后一路飆升,盤中最高到351.8港元,最終收盤345港元,較發行價暴漲 109.09%,市值來到1054億港元,成了千億市值俱樂部新成員。
雖然高額的研發投入使得兩家公司目前仍處于虧損狀態,但強勁的增長曲線證明了市場對于高質量AI模型的付費意愿正在形成。
中國AI方興未艾,但當全球目光已經再次聚焦到DeepSeek身上。一年前那個用低成本路徑顛覆行業認知的團隊,即將在春節期間交出新的答卷。
DeepSeek能否第二次“震驚全世界”,只要再等幾天就會知曉。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.