![]()
![]()
編輯:前沿在線 編輯部
就在昨日,讓全球 AI 圈苦等 15 個月的DeepSeek V4,終于來了!
![]()
4 月 24 日上午,DeepSeek正式發(fā)布新一代旗艦 MoE 大模型DeepSeek-V4預(yù)覽版,同步完成MIT 協(xié)議全量開源,上線 HuggingFace、ModelScope 兩大開源平臺,附帶 58 頁完整技術(shù)報告,官網(wǎng)、官方 App 與 API 服務(wù)全渠道同步更新。
技術(shù)報告地址:
https://huggingface.co/deepseek-ai/DeepSeek-V4-Pro/blob/main/DeepSeek_V4.pdf
而就在發(fā)布前一天,OpenAI 剛剛推出 GPT-5.5,這場針尖對麥芒的前后腳發(fā)布,直接把 2026 年大模型的 “諸神之戰(zhàn)” 推向了最高潮。
![]()
沒有預(yù)熱直播、沒有高管站臺、沒有冗長的路線圖宣講,DeepSeek 用最硬核的方式,扔出了改寫行業(yè)規(guī)則的王炸:全系原生標配 100 萬 token 上下文窗口,最高 384K token 輸出長度,1.6T 萬億參數(shù)旗艦?zāi)P兔赓M商用,推理成本較海外頂級閉源模型最高下探 99%,全棧深度適配國產(chǎn)算力平臺。
![]()
這不是一次常規(guī)的版本迭代,而是一次 AI 基礎(chǔ)設(shè)施級別的革命。它直接把一年前還是 Gemini 獨家王牌的百萬上下文能力,從閉源巨頭手里的 “高端奢侈品”,打成了全行業(yè)觸手可及的 “水電煤”;
它用底層架構(gòu)創(chuàng)新,徹底重構(gòu)了大模型的成本結(jié)構(gòu)與研發(fā)范式;它與國產(chǎn)算力的深度綁定,更是讓中國 AI 全棧自主可控的閉環(huán),第一次真正照進現(xiàn)實。
![]()
不講廢話,先上硬菜:DeepSeek V4 的核心王炸
這次 DeepSeek 一口氣放出雙版本,沒有擠牙膏,直接拉滿了開源大模型的能力上限,核心參數(shù)與能力一目了然:
![]()
能力層面,官方數(shù)據(jù)與第三方測評交叉驗證,V4-Pro已經(jīng)摸到了全球閉源頂流的門檻:
Agent 與代碼能力:Agentic Coding 評測拿下開源模型最佳成績,內(nèi)部員工實測體驗優(yōu)于 Anthropic Sonnet 4.5,交付質(zhì)量接近Opus 4.6非思考模式;Vals AI 代碼基準測試中,以壓倒性優(yōu)勢登頂開源權(quán)重模型榜首,直接擊敗 Gemini 3.1 Pro 等閉源模型,較上代 V3.2 實現(xiàn)10 倍性能躍升;
![]()
世界知識與推理:世界知識測評大幅領(lǐng)先所有開源模型,僅稍遜于谷歌 Gemini-Pro-3.1;數(shù)學(xué)、STEM、競賽級代碼測評中,超越所有已公開的開源模型,比肩全球頂級閉源模型;
![]()
長上下文效率:相較前代 V3.2,推理 FLOPs降低 73%,KV 緩存大小減少90%,徹底解決了百萬上下文推理的性能衰減與算力浪費問題,官方直接官宣:“從現(xiàn)在開始,1M 上下文將是 DeepSeek 所有官方服務(wù)的標配”。
![]()
最狠的還是定價。Flash 版0.14/0.28 美元的百萬 token定價,較 Claude Opus 4.7便宜 99% 以上;Pro 版定價也僅為 GPT-4 的 1/70,比海外頂級模型平均便宜 60%。
更關(guān)鍵的是,官方在定價頁直接埋下彩蛋:受限于當前高端算力供給,Pro 版服務(wù)吞吐有限,預(yù)計下半年華為昇騰 950 超節(jié)點批量上市后,Pro 版價格將大幅下調(diào)。
![]()
![]()
15 個月磨一劍:不是堆參數(shù)內(nèi)卷,是中國大模型研發(fā)范式的革命
在 V4 發(fā)布之前,DeepSeek 一度被圈內(nèi)外質(zhì)疑 “掉隊了”。
過去 15 個月,整個大模型行業(yè)陷入了 “月月發(fā)版、季度迭代” 的內(nèi)卷怪圈,廠商們扎堆堆參數(shù)、卷多模態(tài)、拼營銷造勢,而DeepSeek三次推遲 V4 發(fā)布,在多模態(tài)熱潮中全程低調(diào),甚至傳出核心研究員流失的傳聞,“DeepSeek 跟不上節(jié)奏了” 的聲音在中英文 AI 圈反復(fù)發(fā)酵。
![]()
但 DeepSeek 的回應(yīng),只有發(fā)布稿結(jié)尾那句引自《荀子?非十二子》的話:“不誘于譽,不恐于誹,率道而行,端然正己。”
![]()
翻開 V4 的 58 頁技術(shù)報告就會明白,這 15 個月的 “隱身期”,DeepSeek 根本沒參與行業(yè)的無效內(nèi)卷,而是干成了一件事:徹底重構(gòu)了大模型的底層研發(fā)范式,把國內(nèi)大模型從 “堆參數(shù)、追熱點、突擊發(fā)版” 的粗放模式,拉向了“論文預(yù)研 - 技術(shù)驗證 - 工程落地”的體系化創(chuàng)新路徑。
![]()
V4 的每一項核心技術(shù)創(chuàng)新,都不是臨時抱佛腳的突擊成果,而是過去 15 個月里,一步步通過頂會論文、開源項目完成驗證的長期積累:
2025 年 12 月,DeepSeek在 arXiv 發(fā)布mHC 流形約束超連接論文,解決了萬億級參數(shù)模型訓(xùn)練中的梯度不穩(wěn)、信號爆炸問題,把層間信號放大從傳統(tǒng)方法的 3000 倍壓縮到 1.6 倍以內(nèi),訓(xùn)練效率提升 30%,為 1.6T 參數(shù)模型的穩(wěn)定訓(xùn)練筑牢了根基;
![]()
2026 年 1 月,開源Engram 條件記憶機制,把靜態(tài)知識存儲與動態(tài)推理計算分離,實現(xiàn) O (1) 級別的長上下文信息檢索,長文本檢索準確率從 84.2 提升到 97.0,為百萬上下文能力鋪平了道路;
![]()
半年前的V3.2-Exp版本,首次放出DSA 稀疏注意力機制,當時外界普遍認為這是一次 “無亮點的中間更新”,如今回頭看,這正是 V4 百萬上下文能力的核心地基;
![]()
此外,CSA+HCA 混合注意力架構(gòu)、Muon優(yōu)化器、TileLang 算子開發(fā) DSL、MegaMoE 融合內(nèi)核,無一不是提前完成開源驗證、社區(qū)反饋,最終在 V4 上完成了體系化集成。
這正是OpenAI、谷歌等海外頂級機構(gòu)一直堅守的研發(fā)邏輯,也是國內(nèi)大模型行業(yè)一直缺失的長期主義。
過去,國內(nèi)廠商的迭代,大多是基于現(xiàn)有架構(gòu)的參數(shù)擴容、場景微調(diào),底層創(chuàng)新寥寥無幾;而 DeepSeek 用 15 個月的時間證明,中國 AI 企業(yè)不用靠跟風(fēng)內(nèi)卷,也能靠底層技術(shù)創(chuàng)新,追上甚至超越全球頂尖水平。
![]()
密歇根州立大學(xué)教授 Steve Hsu 實測后評價:“它在數(shù)學(xué)和物理領(lǐng)域的表現(xiàn)又快又聰明,最終結(jié)果精致且準確,這背后是長期扎實的基礎(chǔ)研究,而非短期的工程微調(diào)。”
而開發(fā)者社區(qū)最高贊的評論更是一語中的:“做科研的人才知道,敢開源、愿意開源的團隊,到底有多牛。”
![]()
為國產(chǎn)化而生:黃仁勛最擔心的事,正在發(fā)生
V4 發(fā)布最被行業(yè)低估,卻最具戰(zhàn)略意義的一點,是它從底層架構(gòu)開始,就為國產(chǎn)算力平臺做了全鏈路的量身設(shè)計—— 這不是簡單的模型移植,而是一次從算子、內(nèi)核到架構(gòu)的徹底重構(gòu),為的就是徹底擺脫對海外算力生態(tài)的依賴。
英偉達 CEO 黃仁勛此前在播客中直言不諱:“DeepSeek 的進步意義重大。要是哪天像 DeepSeek 這樣的頂級成果,先在華為平臺上出現(xiàn),那對美國會是非常糟糕的結(jié)果。”
![]()
而 V4 的發(fā)布,讓這句預(yù)警徹底成為了現(xiàn)實。
發(fā)布當日,華為昇騰官方直接官宣,將于當日下午 4 點直播DeepSeek V4 在昇騰平臺的首發(fā);寒武紀同步宣布,已基于 vLLM 推理框架完成對 V4 雙版本的 Day 0 適配,適配代碼已開源至 GitHub。官方數(shù)據(jù)更是直接給出實錘:V4 全棧適配華為昇騰 950PR國產(chǎn)算力平臺,推理速度較 V3 版本提升 35 倍,能耗降低 40%。
![]()
行業(yè)資深從業(yè)者拆解了 V4 為國產(chǎn)算力適配的三大底層設(shè)計,每一步都踩在了國產(chǎn)算力生態(tài)的核心痛點上:
推理端全面引入 MXFP4 低精度格式:徹底降低了對 NVIDIA FP8 生態(tài)的綁定,可完美適配華為昇騰、寒武紀、壁仞等國產(chǎn)芯片的低精度推理能力,從推理端撕開了 CUDA 生態(tài)的壟斷口子;
底層算子改用 TileLangDSL開發(fā):不再完全依賴 CUDA 編寫底層內(nèi)核,而是用更高一層的領(lǐng)域?qū)S谜Z言描述計算邏輯,可跨硬件平臺編譯,把模型向國產(chǎn)芯片遷移的成本降到了最低;
專為國產(chǎn)算力設(shè)計 MegaMoE 融合內(nèi)核:核心解決專家并行中的通信等待問題,精準命中國產(chǎn)算力平臺的多卡通信痛點,目前已在華為昇騰平臺成功跑通。
![]()
這一系列設(shè)計,徹底打破了過去國產(chǎn)大模型“訓(xùn)練靠英偉達、國產(chǎn)適配只是補充”的行業(yè)常態(tài)。
盡管官方確認,V4 的預(yù)訓(xùn)練階段仍采用英偉達 GPU 完成,但從后訓(xùn)練到推理的全流程,已完成國產(chǎn)算力平臺的深度適配,而底層架構(gòu)的設(shè)計,更是為未來全流程國產(chǎn)訓(xùn)練鋪平了道路。
過去幾年,中美 AI 競爭的核心,始終繞不開算力芯片的卡脖子難題。美國的出口管制,讓國內(nèi) AI 企業(yè)始終面臨高端 GPU 斷供的風(fēng)險;而國產(chǎn)算力雖然完成了芯片量產(chǎn),卻長期陷入“有芯片、無頂級模型適配”的困境,性能無法充分釋放。
![]()
DeepSeek V4 與昇騰的深度適配,徹底補上了這關(guān)鍵一環(huán)。它實現(xiàn)了從底層算力芯片,到上層大模型架構(gòu),再到推理部署生態(tài)的全棧自主可控閉環(huán):國產(chǎn)算力有了能充分釋放性能的頂級模型,頂級模型有了不受海外管制約束的算力底座。路透社在報道中直言:“DeepSeek-V4 與華為昇騰的適配,表明中國正在加速減少對美國尖端芯片的依賴。”
![]()
實測見真章:有驚喜也有遺憾,開源平權(quán)時代真的來了
發(fā)布 24 小時內(nèi),整個開發(fā)者社區(qū)已經(jīng)掀起了 V4 的實測熱潮,從頂級開發(fā)者到普通用戶,都在用最嚴苛的場景,檢驗這款 “開源新王” 的真實實力。
從實測結(jié)果來看,V4 的長上下文能力,確實做到了行業(yè)頂尖水平。有用戶實測,用V4-Flash處理一本10M的 epub 電子書,提取幾萬關(guān)鍵字生成 json 文件,僅用 2 分鐘就完成,花費僅 0.5 元,且提取質(zhì)量和篇幅較 V3.2 有大幅提升。
還有開發(fā)者用百萬 token 級別的全量代碼庫測試,V4-Pro 能一次性完成全倉庫的架構(gòu)理解、漏洞排查與功能迭代,徹底告別了過去碎片化切片、上下文丟失的痛點。
![]()
代碼與推理能力上,V4 也交出了亮眼的答卷。Arena.ai 最新榜單顯示,V4 Pro(思考模式)位列代碼競技場開源模型第 3 位、綜合榜單第 14 位,躋身全球頂級模型行列。
經(jīng)典的 “洗車測試” 邏輯題,V4 一次性順利通過;但在 “絕望的父親” 紅綠色盲遺傳題中,V4 未能一輪命中核心邏輯,在復(fù)雜常識推理場景中仍有優(yōu)化空間。
為了最大化釋放推理能力,V4 全系標配了三檔思考模式(Non-Think/Think High/Think Max),開發(fā)者可通過 API 的 reasoning_effort 參數(shù)調(diào)整思考強度,復(fù)雜 Agent 場景可直接開啟 Max 模式,模型會先輸出完整的思維鏈,再給出最終答案,大幅提升準確率。
但大量普通用戶反饋,在簡單日常任務(wù)中,V4 存在 “過度思考” 的問題,答案冗余、推理步驟繁瑣,反而影響了響應(yīng)效率。
![]()
而最讓行業(yè)遺憾的,是V4 依然是純文本模型,并未搭載多模態(tài)能力。在 GPT-5.5、Claude 4.7、GLM-5.1 等同期模型都把多模態(tài)作為核心賣點的當下,V4 在視覺理解、多模態(tài) Agent 等場景中,已經(jīng)落后于行業(yè)主流節(jié)奏。
行業(yè)從業(yè)者分析,這大概率是因為國產(chǎn)算力適配的優(yōu)先級過高,占用了核心研發(fā)資源,多模態(tài)能力只能等到后續(xù)迭代版本更新。
Agent 適配方面,也有開發(fā)者實測發(fā)現(xiàn),V4 在與 Claude Code 等主流 Agent框架的聯(lián)動中,工具調(diào)用的觸發(fā)靈敏度不及同期多款國產(chǎn)頭部模型,復(fù)雜工程場景中,存在約束遵守不到位、未與用戶完成關(guān)鍵確認就執(zhí)行操作的問題,在工程化落地的細節(jié)上,仍有打磨空間。
![]()
但瑕不掩瑜,V4 的發(fā)布,已經(jīng)徹底改寫了開源與閉源的競爭天平。當 1.6T 參數(shù)的頂級模型,用 MIT 協(xié)議免費商用,消費級顯卡就能部署普惠版,推理成本低至海外模型的 1%,閉源巨頭的護城河,正在快速瓦解。
![]()
海外 X 平臺上,高贊評論直言:“中國正在主導(dǎo) AI,他們已經(jīng)追上來了。DeepSeek V4 Flash 比 Opus 4.7 便宜 99%,這不是筆誤,是行業(yè)的地震。” 更有開發(fā)者一語道破本質(zhì):“就算你不用 DeepSeek,你現(xiàn)在用的 AI 工具,幾乎都受到了 DeepSeek 開源成果的影響。
沒有 DeepSeek,今天的 AI 生態(tài)絕不會是這個樣子。”
![]()
終局預(yù)判:大模型行業(yè)洗牌開始,90% 的 AI 應(yīng)用都要重做了
V4 的發(fā)布,不是競爭的結(jié)束,而是更高維度競爭的開始。
對 DeepSeek 自身而言,它正面臨著一場從 “奇襲者” 到 “守城者” 的關(guān)鍵轉(zhuǎn)型。過去,DeepSeek靠極致的技術(shù)效率,一次次完成對行業(yè)的奇襲,成為了開源大模型領(lǐng)域的標桿;而現(xiàn)在,V4 把它推到了 “AI 基礎(chǔ)設(shè)施服務(wù)商” 的位置上,接下來它必須回答一個核心問題:開源帶來的生態(tài)紅利,如何轉(zhuǎn)化為可持續(xù)的商業(yè)閉環(huán)?
![]()
目前,國內(nèi)大模型行業(yè)的商業(yè)化仍在探索階段,開源模型的商業(yè)化更是難上加難。如何在保持開源開放的同時,找到穩(wěn)定的盈利模式,支撐起長期的底層技術(shù)研發(fā),是 DeepSeek 必須跨過的門檻。
而官方 “下半年昇騰算力量產(chǎn)后降價” 的承諾,也意味著它的商業(yè)化節(jié)奏,將與國產(chǎn)算力的供給深度綁定,這既是最大的機遇,也是最大的不確定性。
對整個大模型行業(yè)而言,V4 的發(fā)布,直接開啟了新一輪的行業(yè)洗牌。當百萬上下文成為標配、頂級模型能力開源免費、推理成本暴跌 99%,那些沒有核心技術(shù)創(chuàng)新、只靠堆參數(shù)、拼營銷、跟風(fēng)內(nèi)卷的中小模型廠商,將徹底失去生存空間。
行業(yè)的馬太效應(yīng)會進一步加劇,資源與市場份額,將快速向擁有底層技術(shù)創(chuàng)新、全棧適配能力、生態(tài)建設(shè)能力的頭部廠商集中。
![]()
而對整個 AI 產(chǎn)業(yè)來說,V4帶來的最大變革,是AI 應(yīng)用開發(fā)范式的徹底重構(gòu)。
百萬上下文的普惠,直接打破了過去AI 應(yīng)用開發(fā)的核心枷鎖。過去,開發(fā)者 80% 的精力,都花在向量拆分、知識庫切片、上下文補全這些補丁工作上,根本無法聚焦場景創(chuàng)新;而現(xiàn)在,全量文檔端到端理解、長程邏輯連貫推理、跨周期智能體任務(wù),都成為了可能。
![]()
這意味著,90% 的現(xiàn)有 AI 應(yīng)用,都將面臨重構(gòu)。法律行業(yè),整套案件卷宗可以一次性完成證據(jù)梳理與文書撰寫;金融行業(yè),全行業(yè)年報研報可以一次性完成深度分析與風(fēng)險排查;代碼開發(fā)領(lǐng)域,全量代碼庫可以一次性完成調(diào)試與迭代;企業(yè)服務(wù)領(lǐng)域,中小企業(yè)零成本就能搭建專屬的智能助手。AI 創(chuàng)業(yè)的門檻,被降到了前所未有的低點,中小團隊不用再為算力與模型能力發(fā)愁,只需要聚焦場景創(chuàng)新,就能做出有價值的 AI 應(yīng)用。
![]()
2026 年的 AI 市場,已經(jīng)進入了諸神混戰(zhàn)的時代。前有 GPT-5.5、Claude 4.7 等海外巨頭壓陣,后有一眾國產(chǎn)頭部模型同臺競技,DeepSeek V4的登場,不是為了給這場內(nèi)卷的戰(zhàn)爭再添一把火,而是用開源平權(quán)的方式,改寫了戰(zhàn)爭的規(guī)則。
![]()
它用 15 個月的長期主義證明,大模型的競爭,從來不是參數(shù)與發(fā)版速度的內(nèi)卷,而是底層技術(shù)創(chuàng)新、成本效率控制、產(chǎn)業(yè)落地能力的綜合比拼。它用全棧國產(chǎn)化的適配證明,中國 AI 產(chǎn)業(yè)完全可以走出一條自主可控的突圍之路。它用免費開源的普惠,讓百萬上下文能力從巨頭的專屬壁壘,變成了全行業(yè)的基礎(chǔ)設(shè)施。
從這一刻起,AI 產(chǎn)業(yè)的平權(quán)時代,正式到來。而 DeepSeek 用行動印證了它的宣言:不誘于譽,不恐于誹,率道而行,端然正己。
![]()
前沿動態(tài)前沿大會
前沿人物
點「在看」,給前前加雞腿
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.