IT之家 2 月 20 日消息,印度 AI 實驗室 Sarvam 當地時間本月 18 日在印度人工智能影響力峰會上發布了 2 款“從 0 構建”的最新一代 MoE 架構大語言模型。這兩款模型即將在 Hugging Face 上以開源權重的形式提供,API 訪問和儀表盤支持也將隨后推出。
![]()
Sarvam 兩款新模型中的較小型號采用 30B-A1B 設計,預訓練數據集規模達 16T,支持 32K 上下文窗口,面向需求低延遲的實時應用場景;規模較大的型號則采用 105B-A9B 設計,支持 128K 上下文窗口,面向要求更為嚴苛的用例。
![]()
Sarvam 宣稱其 105B-A9B 模型在本地化的印度語言基準測試中優于谷歌 Gemini 2.5 Flash 等競爭對手。而對于更廣泛的工作負載,其“大多數基準測試中優于 DeepSeek R1,許多基準測試中優于谷歌 Gemini Flash”。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.