![]()
![]()
出品|搜狐科技
作者|鄭松毅 常博碩
編輯| 楊 錦
DeepSeek V4,來了!
OpenAI GPT 5.5 前腳剛發布,DeepSeek就亮出了“真家伙”。
就在剛剛,DeepSeek-V4的預覽版本正式上線并同步開源。
據官方介紹,DeepSeek-V4擁有百萬字超長上下文,在 Agent 能力、世界知識和推理性能上均實現國內與開源領域的領先。模型按大小分為兩個版本:
![]()
更具產業里程碑意義的是,DeepSeek-V4 從模型設計之初就深度適配國產算力,在華為昇騰芯片生態實測跑通,成為全球首個在國產算力底座上完成訓練與推理的萬億參數級模型,打破對海外芯片與框架的長期依賴。
![]()
性能比肩頂級閉源模型
價格比Claude便宜21倍
官方實測數據顯示,DeepSeek-V4-Pro性能比肩頂級閉源模型。
![]()
Agent(智能體)能力方面,相比前代模型,DeepSeek-V4-Pro的能力顯著增強。在 Agentic Coding 評測中,V4-Pro 已達到當前開源模型最佳水平,并在其他 Agent 相關評測中同樣表現優異。
DeepSeek介紹,目前 DeepSeek-V4 已成為公司內部員工使用的 Agentic Coding 模型,據評測反饋使用體驗優于 Sonnet 4.5,交付質量接近 Opus 4.6 非思考模式,但仍與Opus 4.6 思考模式存在一定差距。
DeepSeek給出的結論相對克制。在知識與推理任務上,其性能已經超過主流開源模型,并接近Gemini等閉源系統,但仍存在約3到6個月差距。在 agent和代碼任務上,其表現接近甚至部分超過Claude Sonnet。
此外,在數學、STEM、競賽型代碼的測評中,DeepSeek-V4-Pro超越當前所有已公開評測的開源模型(包括月之暗面的K2.6 Thinking、智譜GLM-5.1 Thinking等),取得了比肩世界頂級閉源模型的優異成績。
![]()
相較之下,DeepSeek-V4-Flash主打性價比,能夠提供更加快捷、經濟的 API 服務。在 Agent 測評中,DeepSeek-V4-Flash 在簡單任務上與 DeepSeek-V4-Pro 旗鼓相當,但在高難度任務上仍有差距。
據悉,V4-Pro 與 V4-Flash 最大上下文長度為 1M,均同時支持非思考模式與思考模式,其中思考模式支持 reasoning_effort 參數設置思考強度(high/max)。對于復雜的 Agent 場景建議使用思考模式,并設置強度為 max。使用價格如下:
![]()
DeepSeek表示,“受限于高端算力,目前Pro的服務吞吐十分有限,預計下半年昇騰950超節點批量上市后,Pro的價格會大幅下調。”
再看看國際友商價格對比,可見DeepSeek的實惠:
![]()
![]()
混合架構解決工程落地痛點
全面適配國產算力
大模型處理超長文本的最大痛點,從來不是 “能不能裝下”,而是跑不動、記不住、算不起。隨著傳統注意力機制呈平方級復雜度攀升,百萬Token場景下顯存與算力直接 “爆炸”,幾乎無法工程落地。
DeepSeek-V4 的發布,標志著大模型正式走出 “參數競賽”,進入效率優先下一代賽道。
從一口氣審計全量代碼庫、一次性解析千頁合同,到全程記住長時間會議、串聯多輪復雜智能體任務,V4讓AI 真正具備“完整理解、長期記憶、深度推理”的能力,同時把使用成本大幅下拉。
這一切得益于DeepSeek業內首創“CSA (壓縮稀疏注意力) + HCA (重度壓縮注意力)”的混合架構。用一套“分級壓縮 + 分級檢索”思路,把效率拉到極致。這一新方法顯著減少了計算復雜度,提升了長上下文處理的效率。
![]()
具體來看,CSA像給長文本做重點精讀。先把每 4 個Token壓縮成一個信息塊,再用稀疏檢索只挑最相關的內容,既保留中段細節,又大幅削減計算量,兼顧精準與效率。HCA像給長文本做大綱速讀,把海量信息濃縮成框架級塊,專門負責全局邏輯。
官方數據顯示:1M Token場景下,V4-Pro 僅需 V3.2 的 27% 推理算力、10% KV 緩存;Flash 版更是低至 10% 算力、7% 緩存。
除了混合注意力,V4 還帶來三項關鍵技術革新,構成完整效率革命:
升級傳統殘差連接,把信號傳播約束在穩定流形上,深層不衰減、訓練不炸數值。
Muon 優化器:替代傳統 AdamW,收斂更快、訓練更穩,完美適配 MoE 大模型與低精度訓練,解決大批次長上下文訓練的抖動難題。
全鏈路工程優化:專家并行細粒度通信重疊、TileLang 內核開發、FP4 量化感知訓練、異構 KV 緩存管理,從計算、通信、存儲全方位降本提速,推理加速最高近2倍。
最受大家關心的,是V4這次是否成功全面適配國產算力?
報告指出,DeepSeek-V4在英偉達 GPU 與華為昇騰 NPU 兩大硬件平臺上,對細粒度 EP 優化方案完成了全面驗證。相較于性能優異的非融合基線方案,該方案在通用推理負載場景下可實現1.50~1.73 倍的加速比。
有業內觀點指出,這代表已經完成華為昇騰平臺的適配和實測落地。但目前對外開源的只有英偉達GPU版本,昇騰適配代碼未開源,屬于閉源適配優化。
值得一提的是,寒武紀在軟硬一體生態中,已經完成基于 vLLM 推理框架完成對 285B DeepSeek-V4-flash 和 1.6T DeepSeek-V4-pro 的適配,適配代碼已開源到 GitHub 社區。
剩下的,就等DeepSeek-V4的實用表現了。還有DeepSeek的首輪融資最終花落誰家,也還是個謎題。
“不誘于譽,不恐于誹,率道而行,端然正己。”
DeepSeek官方在文章最后表示,他們將始終秉持長期主義的原則理念,在嘗試與思考中踏實前行,努力向實現 AGI 的目標不斷靠近。”
![]()
![]()
![]()
運營編輯 |曹倩審核|孟莎莎
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.