鷺羽 發自 凹非寺
量子位 | 公眾號 QbitAI
一哥就有一哥樣。
真夠頂的!剛剛,國內AI云老大哥阿里云整了波大的——
一口氣上線Qwen3.5、GLM-5、MiniMax M2.5、Kimi K2.5四大頂尖開源模型。
要不說阿里云動作夠快的,剛一復工,就把春節檔最強模型們全兜住了。
![]()
而這四款模型,顯然也很有說法:
阿里原生的Qwen3.5以小勝大,刷新全球“源”神新高度。不僅橫掃同級開源模型,面對Gemini-3-Pro、GPT-5.2等頂級閉源模型也毫不遜色,一舉登頂Hugging Face開源大模型榜單。
MiniMax M2.5專為Agent而生,復雜辦公場景表現出色,直接帶動MiniMax港股激增。
Kimi K2.5則是多模態和編程能力突出,上線近20天累計收入就已超過2025年Kimi全年總和。
GLM-5更是供不應求,發布前代號Pony Alpha就熱度空前,發布后長任務表現持續領先,編程能力比肩Claude Opus 4.5。
而這些夯爆了的模型,都第一時間齊聚阿里云。
![]()
阿里云這邊也同樣誠意滿滿,不僅提供模型API,還同步推出Coding Plan訂閱服務。
Token量大管飽,新用戶低至首月7.9元,即可在Qwen Code、Claude Code、Cline,以及最近大火的OpenClaw等工具間無縫切換頂級模型。
這性價比杠杠的。
更開放還更便宜,本次春節大模型之戰,最后的大贏家還得看阿里云。
四大模型齊聚一堂
毫無疑問,在本次Coding Plan升級中,最亮眼的莫過于四款頂尖模型。那么話不多說,咱們先來細說它們被阿里云選中的理由~
畢竟據量子位不完全統計,從今年第一天到除夕,就有超30起大模型更新事件,那么為什么阿里云為開發者們首選了這四個呢?
首先是月之暗面在1月27日發布的Kimi K2.5。
![]()
作為K2系列的進階版,它是Kimi迄今為止最智能也最全能的模型。原生多模態架構設計,能夠直接理解圖像和視頻內容,并將其應用在復雜的邏輯推理中。
視覺審美一流,并與代碼能力結合。用戶只需上傳一張網頁截圖,Kimi K2.5就能自動生成高度還原的、帶有動態效果的前端代碼,還能通過截取局部圖實現代碼更新。
或者直接一句指令,就能輸出具有交互功能的完整網頁。
另外,Kimi還引入了大規模智能體集群,在面對復雜任務時,可自動調度出上百個子智能體并行工作。
尤其是在處理需要1500次工具調用的超大規模任務時,速度相比單智能體模式可提升4.5倍。
![]()
圖片來自月之暗面
緊接著的是2月11日發布的MiniMax M2.5
它的定位是原生Agent生產級模型,和Kimi K2.5一樣,能夠同時驅動多個子Agent并行處理任務,同時使用更少的對話輪次,例如在BrowseComp測試中,模型評分顯著提升(76.3%)。
MiniMax M2.5還深度學習了專業場景知識,支持生成帶公式和圖表的Excel財務模型、專業排版的PPT以及高質量Word文檔、研報等。
編程能力對標行業一流,同時具備原生Spec能力,在寫代碼前,它能夠像人類架構師一樣主動拆解架構、規劃功能模塊。
![]()
圖片來自MiniMax
而在MiniMax M2.5發布同天,備受矚目的GLM-5也是千呼萬喚始出來。
它通過超大規模的MoE架構,徹底解決了長程任務的邏輯一致性問題。
在編程基準測試SWE-Bench Verified中取得77.8%的成績,超過了Gemini 3 Pro,逼近Claude 4.5 Opus。具備后端重構、深度調試(Debugging)、跨文件邏輯修改等全流程開發能力。
GLM-5在Agent上同樣表現優秀,可以就模糊指令完成自主規劃步驟并調用外部工具,開發者還能實時看到Agent調用參數。
內置有專門的思考模式開關,在面對AIME 2026等復雜邏輯推理任務時,會先內部進行CoT推理再輸出答案,以大幅度降低邏輯幻覺。
![]()
圖片來自智譜
最后是除夕壓軸登場的Qwen3.5,也是阿里最新一代旗艦級大模型。
作為Qwen家族新成員,在延續以往開源優勢的同時,實現了極低算力消耗下,性能全面對標GPT-5.2和Gemini-3-Pro。
而且總參數只有3970億,激活僅需170億,性能卻比萬億參數的Qwen3-Max還要強。更直觀的是,部署顯存占用降低60%,最大推理吞吐量提升19倍,達成大模型效率和成本雙雙優化。
百萬Tokens低至8毛,相當于Gemini-3-pro的1/18。
再具體看基準測試結果。在推理、編程、智能體等核心維度上,Qwen3.5再創新高。
![]()
例如,在考核綜合認知能力的MMLU-Pro測試中,千問3.5得分87.8分,超過GPT-5.2;在博士級難度的GPQA上斬獲88.4分,比以嚴謹邏輯著稱的Claude 4.5還要高;在Agent能力上也是全面發力,BFCL-V4和Browsecomp評分均全面超越Gemini-3-Pro。
能力強、價格低、還開源,也難怪Qwen3.5一出,就成為近期最受開發者歡迎的開源大模型。
而上述這些各有所長的頂級模型們,現在齊刷刷聚集阿里云,也是給予開發者自由選擇的便利。
尤其是那些過年期間忙著干飯,還沒來及追行業動態的開發者們,現在阿里云直接能一站式購齊了。(doge)
![]()
價格造福開發者
既然是開工福利,阿里云也給咱們把價格打下來了。
眾所周知,OpenClaw這類Agent工具是Token“黑洞”。為了讓Agent深度理解,必須反復讀取整個項目內容,而每多一輪對話,上下文就會呈指數級堆疊。
Agent在寫代碼時往往也是比較盲目的,經常需要反復報錯修改,這就導致Token消耗極快。
而阿里云專門為此推出的Coding Plan,能夠讓模型按需使用Token,有效減低使用成本。
具體來說,阿里云Coding Plan在本次升級中,走的是加量不加價路線。Lite基礎套餐每月可最多18000次請求,新用戶首月購買僅需7.9元,比2折還低。
高級版Pro套餐,每月更是可狂攬90000次請求,上千次復雜任務都不在話下,非常適合企業級用戶。價格方面,首月也同樣低至39.9元,一杯全家福奶茶的價格。
![]()
至此,加上新增的四款模型,阿里云Coding Plan目前共支持8款頂尖編程模型,包括阿里自研的Qwen3.5-Plus、Qwen3-Max、Qwen3-Coder-Next、Qwen3-Coder-Plus,以及第三方的GLM-5、GLM-4.7、Kimi-K2.5、MiniMax-M2.5。
所有模型統一計費、額度共享,訂閱后均可實現自由切換。
妥妥的國內AI云服務最強組件。
不止Coding Plan,其所在的阿里云百煉平臺也迎來持續增強,全家桶式接入了百余款國內外主流模型API。
企業無需分別對接幾十家公司的API,只需百煉一個入口,就能根據業務場景靈活使用,比如財務審計可以用GLM-5,文案創意用Qwen3.5。
![]()
還有400多個AI硬件、短視頻及廣告內容等領域的Agent模板與服務,企業無需再從零開發,而是按需調用,工程應用時間縮至最短。
它為開發者們提供了一整套“需求分析→編程開發→邏輯測試→部署運維→監控追蹤”的開發鏈路,實現了低門檻的閉環工程化跨越。
為什么是阿里云?
其實四大頂流模型同框齊聚阿里云這事,真挺活久見的。
其它云廠商要么只推自家模型,要么零散接入少數第三方,像阿里云這番海納百川,也是業內頭一份了。
而且這四款個頂個的都是廣受好評的開源旗艦款,剛落地就被阿里云帶走,歸根結底還是阿里云自身實力夠硬,強強聯合,實現1+1>2。
![]()
作為亞太第一的云廠商,阿里云能做到這點,離不開技術與商業的雙重突破。
首先阿里云擁有超大規模的智算集群,能提供萬卡級別的并行訓練算力。對于第三方模型,阿里云不僅能提供穩定的GPU資源,還可通過軟硬協同加速推理過程,從而降低模型部署的運維成本。
阿里云也是國內最早提出模型即服務(MaaS)概念的。打造的一站式開發平臺阿里云百煉提供了開發包容的集成環境,也便于模型廠商直接接觸到最迫切的用戶群體。
![]()
更關鍵的一點是,阿里云已經擁有相當成熟的用戶生態。長期以來的開源路線讓阿里云擁有了一批忠實的付費客戶,旗下的魔搭社區更是匯聚了數百萬開發者。
與此同時,入駐阿里云也就意味著模型廠商能夠直接對接阿里背后的數十萬企業級客戶,海量的場景生態是大模型最好的練兵場。
自此,阿里云構建起“算力-集成-生態”三位一體的飛輪效應,所以能吸納來這么多優質的大模型加入,也是情理之中。
![]()
而對于阿里自身,選擇開放,也是它們長期以來從大模型到云服務一以貫之的戰略邏輯。
阿里清晰地認識到,AI時代沒有一家公司能壟斷全部模型。與其把第三方當作對手,不如將自己作為底層操作系統,承載著全部AI大模型一同起飛。
換言之,從互聯網時代到AI時代,阿里的初心從未改變,就是為用戶提供最好用的產品。
所以年后復工第一站,選擇阿里云看來還真不戳~
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.