「用3B激活參數,做出別人27B的活。」這是阿里千問團隊給Qwen3.6-35B-A3B的定調。4月16日,這款混合專家(MoE,Mixture-of-Experts)模型開源,總參數量350億,但每次只叫醒30億干活——稀疏架構的精髓就在這兒。
IT之家注意到,官方把"智能體編程能力"放在C位宣傳。這不是隨便找個賣點,而是精準戳中了開發者痛點:本地跑不動大模型,API調用又燒錢,中間地帶長期空白。
![]()
一張圖看懂:為什么3B能頂27B
MoE架構的核心 trick(技巧)是"按需喚醒"。350億參數像一支龐大的專家庫,面對具體任務時,路由網絡只挑選最相關的30億參數參與計算。這相當于讓一位全科大夫坐診,背后站著各科室專家團——病人描述癥狀,系統自動搖來對應科室。
對比傳統稠密模型(Dense Model),后者每次推理必須調動全部參數,就像不管感冒還是骨折,全院醫生集體出診。Qwen3.5-27B就是這種"全家桶"模式,27億參數一個不落。
結果很打臉:Qwen3.6-35B-A3B在多項編程基準上反超了這位"全家桶"前輩。更騷的是,它還大幅超越了自家前代Qwen3.5-35B-A3B——同樣是MoE,同樣是35B總參/3B激活,代際提升肉眼可見。
具體能干什么?官方列了三個集成場景:
? OpenClaw(原Moltbot/Clawdbot):可自托管的開源AI編碼智能體,接上百煉API就能在終端跑完整工作流
? Qwen Code:阿里自家終端智能體,對千問系列深度優化
? Claude Code:通過兼容Anthropic API協議,蹭上Claude的生態
一個模型同時打通三條鏈路,野心不小。
多模態這塊,Claude Sonnet 4.5成了背景板
Qwen3.6系列原生支持多模態,35B-A3B版本把這項能力完整繼承。官方benchmark顯示,在大多數視覺語言任務上,它已經和Claude Sonnet 4.5打平,部分任務反超。
空間智能是亮點:RefCOCO得分92.0,ODInW13得分50.8。這兩個指標測的是"看圖指物"的精準度——給張室內照片,模型能準確標出"沙發左邊第三個靠墊"那種。
這對機器人、AR導航、智能倉儲是剛需。以前這類能力集中在閉源大模型里,現在30億激活參數就能開箱即用,成本曲線陡然下壓。
更隱蔽的升級是preserve_thinking功能:在多輪對話中保留完整思維鏈。做智能體任務時,這相當于給模型配了個"工作備忘錄",前后文不丟失,推理連貫性大幅提升。
開源策略:把"輕量化"做成護城河
阿里這次 release(發布)的路徑很清晰:Hugging Face和ModelScope同步放權重,Qwen Studio即時可玩,阿里云百煉API以qwen3.6-flash名稱上線。三條通道覆蓋本地部署、云端調用、快速體驗全場景。
API層面同時兼容OpenAI和Anthropic協議,這是老練的生態卡位。開發者不用改代碼,直接平替——降低遷移成本,就是提高 adoption(采用率)。
但真正的棋眼在"規模"二字。35B總參/3B激活這個檔位,恰好踩在本地部署的甜蜜點上:
? 消費級顯卡能跑(顯存壓力可控)
? 性能又不至于太寒酸(編程、多模態都能打)
? 企業私有化部署成本可接受
對比一下:Qwen3.5-27B稠密模型,本地跑起來費勁;更大的閉源模型,API賬單嚇人。35B-A3B卡在中間,像一把精準的手術刀。
阿里官方說,這是"該規模下模型能力的新標桿"。翻譯一下:在這個參數檔位,暫時沒人能打得過。
開發者現在能做什么
如果你屬于這幾類人,建議直接上手:
第一,在找本地編程助手的個人開發者。OpenClaw+Qwen3.6-35B-A3B的組合,終端體驗已經逼近云端大模型,且數據不出本機。
第二,做多模態應用的產品團隊。空間智能能力開源可用,AR導航、視覺客服、工業質檢等場景值得重新評估技術棧。
第三,受限于API預算的初創公司。百煉的qwen3.6-flash定價策略尚未公布,但參考MoE架構的推理成本優勢,大概率比同能力稠密模型便宜一個數量級。
具體入口:Qwen Studio(chat.qwen.ai)即時體驗,Hugging Face/ModelScope下載權重,百煉API文檔查集成細節。技術博客有OpenClaw、Qwen Code、Claude Code的詳細對接腳本。
一個值得關注的細節:官方把"智能體編程"而非"通用對話"作為首要賣點。這說明千問團隊的產品判斷是——大模型競爭已從"誰能聊天"轉向"誰能干活"。代碼生成、工具調用、多步任務執行,這些硬核能力才是下一階段的差異化戰場。
30億激活參數做到這個程度,MoE架構的工程優化空間可能還遠未觸頂。阿里預告Qwen3.6開源家族將持續擴展,下一個 release 會不會把激活參數壓到1B級別、同時保持同等能力?這不是沒有可能。
對開發者來說,現在最務實的動作是:把Qwen3.6-35B-A3B接進你的工作流,測測它在你具體場景下的表現。benchmark是別人的,latency(延遲)和準確率是自己的。開源模型的價值,終究要在代碼里兌現。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.