大模型正在從“聊天”進入“干活”的階段。
真正讓開發者和企業用戶焦慮的,也不再只是一次問答多少錢,而是 Agent 在長上下文、多輪推理、代碼調用和自動化工作流中持續燃燒的 Token 成本。
就在這一節點,DeepSeek 連續兩天出手降價。
4月25日晚,DeepSeek宣布對V4-Pro模型API開啟限時2.5折價格優惠。26日晚,DeepSeek又宣布DeepSeek全系列API服務,輸入緩存命中的價格降至原有價格的1/10。其中,Pro模型在2026年5月5日前疊加2.5折限時優惠。最新調價后,DeepSeek-V4-Flash每百萬tokens輸入緩存命中價格為0.02元,DeepSeek-V4-Pro為0.025元。
《每日經濟新聞》記者(以下簡稱每經記者)注意到,在OpenRouter上,DeepSeek新模型4月24日上線后調用量已有明顯增長。數據顯示,4月25日,DeepSeek V4-Pro的調用量為136億Token,較前一日(4月24日)增長近四倍。
上海財經大學特聘教授胡延平在接受每經記者采訪時表示,DeepSeek此舉意在延攬更多用戶,尤其是企業用戶、開發者和各類Agent用戶。近幾個月國際國內主要模型服務的資費都有較大幅度上漲,DeepSeek 在資費方面再次壓低行業價格預期。
![]()
圖片來源:蘭素英
DeepSeek連續兩日降價,部分價格已降至原價四十分之一
4月24日,DeepSeek-V4預覽版正式發布并同步開源,號稱在Agent能力、世界知識與推理性能三大維度達到國內及開源領域領先水平。
就在模型發布次日(25日晚),DeepSeek宣布DeepSeek-V4-Pro模型API限時2.5折優惠,優惠期截至2026年5月5日。
26日晚,DeepSeek又宣布DeepSeek全系列API服務,輸入緩存命中的價格降至原有價格的1/10。Pro模型則在2026年5月5日前疊加2.5折限時優惠。
要知道,在本次連續兩日降價之前,DeepSeek-V4的價格本就極具“殺傷力”。同樣處理百萬Token的輸入與輸出,GPT-5.5和Claude Opus 4.7的合計成本分別是35美元和30美元。而DeepSeek-V4-Pro僅需5.27美元。如果輸入命中緩存,輸入價格進一步降至每百萬Token 0.145美元,合計成本降至3.66美元。
也就是說,在標準定價下,DeepSeek-V4-Pro的成本大約是GPT-5.5的七分之一、Claude Opus 4.7 的六分之一。如果緩存命中,則大約是GPT-5.5的十分之一、Claude Opus 4.7的八分之一。
而DeepSeek-V4-Flash的輸入價格每百萬Token僅0.145美元,輸出價格0.293美元,合計0.439美元。緩存命中后進一步降至0.322美元。
而現在,降價疊加限時優惠,DeepSeek-V4-Pro輸入緩存命中的價格已降低至0.025元/百萬Token,為原價的四十分之一。
![]()
通過上表可以看到,從公開API單價看,DeepSeek-V4系列已進入全球主流高性能模型中的最低價格帶。尤其是在輸入緩存命中場景下,V4-Pro限時價降至0.0037美元/百萬Token,V4-Flash更低至0.0029美元/百萬Token,顯著低于GPT-5.5、Claude Opus 4.7、Gemini 2.5 Pro等一線閉源模型。不過,若按完整任務成本計算,模型輸出Token數、推理長度和任務類型仍會影響最終賬單。
DeepSeek這次真正打穿的,不是“所有模型的絕對最低價”,而是“高性能Agent模型的價格錨”。
對此,上海財經大學特聘教授胡延平在接受每經記者采訪時指出,DeepSeek此舉意在延攬更多用戶,尤其是企業用戶、開發者和各類Agent用戶。
“Agent的Token消耗比較高,V4在模型達到一線水準的情況下,資費顯著低于其他國產模型,對用戶來說有很大吸引力。”胡延平表示,“近幾個月,國際國內主要模型服務資費都有較大幅度上漲,DeepSeek則在資費方面再次擊穿行業成本線。”
三方平臺顯示:DeepSeek調用量一度飆升4倍
DeepSeek-V4分為Pro與Flash兩個版本,均支持百萬(1M)Token超長上下文。
Artificial Analysis對DeepSeek-V4進行了推理能力專項測評。結果顯示,V4-Pro在人工分析智能指數中斬獲52分,相較V3.2版本的42分實現10分躍升,成為僅次于Kimi K2.6的全球第二大開源推理模型。
![]()
圖片來源:DeepSeek微信公眾號
V4-Flash得分47分,性能弱于V4-Pro,但顯著超越DeepSeek-V3.2,綜合智能水平對標Claude Sonnet 4.6(全力版),介于頂尖閉源模型與主流中端模型之間。
每經記者注意到,在全球最大AI模型應用程序編程接口聚合平臺OpenRouter上,DeepSeek新模型上線后調用量已有明顯增長。
數據顯示,4月25日,DeepSeek-V4-Flash的調用量為502億Token,較前一日增長85.9%;DeepSeek-V4-Pro的調用量為136億Token,較前一日增長近四倍。
不過,這場熱度能否持續,仍有待觀察。截至發稿,DeepSeek兩款新模型并未登上4月20日至26日當周的OpenRouter全球AI大模型周調用量榜單和4月26日的OpenClaw日調用榜。
在DeepSeek首次官宣降價的次日(4月26日),DeepSeek-V4-Flash的調用量為814億Token,較前日環比增長62.2%。DeepSeek-V4-Pro的調用量為96億Token,不及前日。
但DeepSeek的猛烈攻勢,無疑給其他模型廠商帶來了壓力。
胡延平分析稱:“DeepSeek的超低Token資費會在一定程度上壓低部分高性能模型的價格預期,對Kimi K2.6、GLM-5.1、Qwen系列、MiniMax等國產模型的價格預期形成壓力。”
那么,這是否意味著大模型Token價格的拐點已至?胡延平認為,如果后續國產推理算力能進一步大規模部署,在Agent應用不斷拉高消耗量的情況下,有望平抑持續上漲的Token價格。但他同時也強調,此舉對GPT-5.5、Claude 4.7 Opus等頂尖模型的影響可能相對有限。
但無論如何,DeepSeek-V4這條“鯰魚”的闖入,已經開始攪動大模型市場。對于廣大開發者和用戶而言,一個選擇更多、成本更低的新時代,或許正加速到來。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.