品玩12月17日訊,據 Github 頁面顯示小米近日推出MiMo-V2-Flash,一款總參數達309B、激活參數15B的Mixture-of-Experts(MoE)語言模型。
該模型采用混合注意力架構與多詞元預測(MTP)技術,在保持256K長上下文能力的同時,顯著提升推理速度并降低計算成本。MiMo-V2-Flash通過多教師策略蒸餾(MOPD)與大規模智能體強化學習,在SWE-Bench、數學推理及代碼生成等任務中表現優異。
該模型現已開源,并支持FP8混合精度部署,適用于高效率智能體工作流與復雜推理場景。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.