
![]()
“大模型進入原生多模態時代!”
作者丨劉偉
編輯丨林覺民
這可能是有史以來AI濃度最高的一次春節。千問、豆包、元寶等 C 端 AI助手爭相贊助春晚,借紅包與補貼快速拉升日活;各家基礎大模型也悄然迭代版本,蓄勢展開行業角逐。
而這輪AI春節檔迎來了最強殺手锏!2 月 16日除夕當天,阿里開源全新一代大模型Qwen3.5-Plus,其性能媲美Gemini-3-pro、GPT-5.2等頂級閉源模型,一舉登頂全球最強開源模型寶座。
這款模型在模型架構上全面創新,是旗下首款原生多模態模型,并且在性能和推理效率上均實現大幅提升。此次發布的Qwen3.5-Plus 總參數達 3970 億,實際激活僅 170 億,性能卻超越萬億參數的 Qwen3-Max 模型;同時部署顯存占用降低 60%,最大吞吐量可提升至19倍,真正實現以小勝大。
實測結果顯示,千問 3.5 在 MMLU-Pro 認知能力評測中拿下 87.8 分,超越 GPT5.2;在博士級難題 GPQA 測評中斬獲 88.4 分,高于 Claude 4.5;在指令遵循 IFBench 評測中以 76.5 分刷新所有模型紀錄;在通用 Agent 評測 BFCL-V4、搜索 Agent 評測 Browsecomp 等基準中,表現均超越 Gemini-3-Pro。
![]()
這次,阿里還把底層模型架構和AI infra創新的紅利釋放給了廣大企業和開發者,千問 3.5 加量不加價 —— 性能大幅躍升的同時,使用成本再創新低。阿里云百煉上的千問 3.5 API 價格已經出爐:每百萬 Token 輸入低至 0.8 元,僅為 Gemini-3-pro 的 1/18。
01
模型架構多項創新,
千問3.5性能、效率大幅提升
過去數年,大模型行業陷入近乎偏執的 “參數崇拜”。從千億到萬億,參數規模的膨脹被視作性能提升的唯一路徑,而這種粗放式發展也存在諸多問題:部署門檻高,推理消耗天價成本…… 技術創新與實際應用之間,形成一道難以跨越的鴻溝。
Qwen3.5-Plus打破了這一固有思路,它不僅在架構層面實現創新,還采用了全新的原生多模態預訓練范式,直接打破開源模型的性能天花板。
Qwen3.5-Plus 的技術與架構創新,主要體現在四大核心維度:首先是注意力機制的革新。面對長文本,傳統 Transformer 模型需對每個詞與所有上下文做全量計算,算力消耗隨文本長度指數級增長。Qwen3.5-Plus 引入混合注意力機制,讓模型學會 “有詳有略地讀”,自動識別關鍵信息精讀、非關鍵部分快讀,既大幅降低長文本處理的算力成本,又保障信息處理精度。
其次是架構層面的代際躍遷。Qwen3.5-Plus 采用極致稀疏的混合專家(MoE)架構。傳統稠密模型每次推理都要激活全部參數,如同讓整個工廠的工人同時作業,無論任務大小;而 MoE 架構恰似一支特種部隊,僅根據任務需求調用最相關的 “專家” 子網絡。Qwen3.5-Plus 將這一理念做到極致 ——3970 億總參數中,僅需激活不到 5%(170億),就能調動全部知識儲備,從根本上解決算力浪費問題。
三是原生多Token預測。以往的模型如同打字時每按一個鍵都要停頓思考下一個字,效率低下;而千問3.5在訓練時就學會了 “預判”,能同時規劃多個詞甚至一整句話的輸出并一次性生成。這并非簡單的多字打包發送,而是模型在內部真正 “提前規劃” 后續內容,讓長文本生成、代碼補全、多輪對話等高頻場景的響應速度近乎翻倍,用戶能感受到近乎 “秒出” 的流暢體驗。
最后是系統級訓練穩定性優化。為讓模型在超大規模訓練中保持穩定,千問團隊完成多項底層優化。根據官方信息,阿里千問團隊入選NeurIPS2025最佳論文的注意力門控機制研究這次也被用上了,一年前的前瞻性研究現在已成為打破模型性能天花板的重要一環。在256K超長上下文情況下,千問3.5推理吞吐量最大提升至19倍,推理效率大幅提升。
值得注意的是,和絕大多數多模態模型不同,Qwen3.5-Plus在多模態理解的實現上嘗試了新的路徑。據介紹,從預訓練第一天起,千問模型就在文本和視覺的混合數據上聯合學習,讓視覺與語言在統一的參數空間內深度融合。這樣的技術路徑帶來的效果顯著。
在訓練階段,千問3.5在文本、圖像、視頻等混合數據訓練吞吐量,幾近100%持平純文本基座模型訓練,大舉降低了原生多模態訓練的難度門檻;同時,通過設計精巧的FP8、FP32精度應用策略,在訓練穩定擴展到數十萬億個token時,激活內存減少約50% ,訓練還能提速10% ,進一步節約了模型訓練成本、提升了訓練效率。
在推理階段,測試數據顯示,千問3.5在多模態推理(MathVison)、通用視覺問答VQA(RealWorldQA)、文本識別和文件理解(CC_OCR)、空間智能(RefCOCO-avg)、視頻理解(MLVU)等眾多權威評測中,均斬獲最佳性能。
02
技術紅利全面釋放,
千問要做人人都能用的AI
如果說技術創新解決了大模型 “能不能用” 和“好不好用”的問題,那么普惠定價則破解了 “用不用得起” 的難題。
長期以來,高昂的 API 調用成本是 AI 技術落地的最大障礙。對于預算有限的中小企業和個人開發者而言,動輒數元的單次調用費用,足以扼殺無數創新想法。
盡管近兩年大模型的價格在不斷降低,但這輪價格的下調更多來自各大云服務商和模型廠商的商業策略。這次阿里云百煉上給出的Qwen3.5-Plus API 定價同樣急劇競爭,每百萬 Token 輸入僅需 0.8 元,Gemini-3-pro 的 1/18。
這種極致普惠定價的底氣,來自阿里在模型和AI基礎設施層面的協同創新。
除了上述模型架構的技術創新,千問大模型還可通過阿里云和平頭哥自研芯片的加持,進一步提升推理效率。這種模型、芯片和云的軟硬件緊密耦合,最終實現了1+1+1>3的效果,不僅能更好發揮芯片的算力潛力,以及集群的算力效率,還能更好有效提升模型訓練以及推理的效率。
例如,平頭哥真武芯片針對以千問3為代表的主流MoE架構模型做了大量優化,可滿足千問大模型對大規模計算的需求。這種通過模型、芯片以及云的協同創新,打破了性能、效率和成本的不可能三角。
另一方面,為讓更多群體用上這款SOTA模型,千問3.5還面向全球開發者開源,開發者可在魔搭社區和 HuggingFace 免費下載部署模型,阿里還將陸續開源不同尺寸、不同功能的Qwen3.5系列模型,支持本地、端側等多場景部署,滿足個性化開發需求。
事實上,千問自誕生以來,就一直堅持開源路線,千問系列已開源 400 多個模型,衍生模型數量超 20 萬,全球下載量突破 10 億次,遠超美國的 Llama,極大地推動了AI在千行百業普及。
03
結語
事實上,千問3.5的性能和成本突破,是阿里在云、芯片和模型三大技術領域持續深耕的結果。這種全棧自研帶來的價值遠不局限于單線業務,三大業務深度協同產生的化學反應,正在釋放更大的勢能。
最顯著的變化是,千問大模型的持續爆火讓阿里云再次進入高速增長期。根據市場調研機構 Omdia 數據,2025 年上半年,中國 AI 云整體市場(AI IaaS+PaaS+MaaS)規模達 223 億元,阿里云占比 35.8 %,超過第二到第四名總和。Omdia 數據還顯示,2025年,阿里云在中國云市場的份額從上季度的33%提升至36%,領先優勢進一步擴大。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.