3月30日,摩爾線程正式開源MuJoCo Warp MUSA。這是具身智能領域首個基于MUSA架構的全功能GPU加速物理仿真后端,試圖在機器人強化學習仿真訓練這一長期由NVIDIA主導的技術賽道上,為國產算力打開一個缺口。
MuJoCo是目前學術界與工業界最廣泛使用的物理仿真引擎之一,由Google DeepMind維護,OpenAI Gym、dm_control等標準平臺均以其為物理后端。
原版MuJoCo主要依賴CPU運行,在復雜接觸場景和海量樣本生成任務中性能瓶頸明顯。
為突破這一限制,DeepMind基于NVIDIA Warp編程語言推出了GPU加速版本MuJoCo Warp,并聯合NVIDIA、Disney Research共同開發了Newton物理引擎,將MuJoCo Warp作為核心求解器集成其中。
摩爾線程所做的,正是為MuJoCo Warp增加對MUSA架構的原生支持,使其能夠直接調用摩爾線程的全功能GPU。
從技術角度看,這并非簡單的外包適配,而是在Warp編程語言與MUSA指令集之間建立了深度映射層。
據官方披露,該后端的仿真計算結果與CPU版本相比,單個仿真步長的絕對誤差控制在1e-5以內,基本實現了計算精度的無損遷移。
性能層面,實際測試給出了可量化的數據。在典型四足機器人訓練任務中,相較多核CPU,MuJoCo Warp MUSA實現了最高40倍的加速。
MTT S5000單卡可在1小時內完成宇樹科技Go2機器狗的訓練收斂;在G1人形機器人模仿學習任務中,單卡訓練約4.8天完成收斂,并支持多卡近線性擴展。
這些數字放在NVIDIA Isaac Sim生態里不算頂尖,但對于從零起步的國產替代方案而言,至少證明了一條技術路徑的可行性。
從產業邏輯看,這一開源項目的價值不止于加速本身。長期以來,機器人強化學習仿真訓練高度依賴NVIDIA的CUDA生態和Isaac Sim平臺,國產算力在這一領域長期缺乏可用、完整的基礎支撐。
摩爾線程試圖通過打通“云側大規模訓練—端側SoC部署”全鏈路,為機器人仿真提供一套可落地的全棧國產算力參考方案。同時,其自研智能SoC芯片“長江”已經在端側完成部署驗證,意圖實現從訓練到推理的國產化閉環。
開源意味著選擇了一條更開放的路徑。摩爾線程相關負責人表示,后續將持續優化MUSA軟件棧,并推進通用機器人仿真訓練平臺Lambda Lab的整合與開源共建。
這種方式能否吸引足夠多的開發者參與,形成一個真正活躍的國產仿真生態,還需要時間檢驗。
一個值得追問的問題是,當NVIDIA、Google DeepMind和Disney Research聯合推出的Newton引擎正在逐步統一機器人仿真標準時,國產算力選擇在DeepMind主導的MuJoCo Warp分支上另起爐灶,究竟是找到了差異化突破口,還是會面臨生態孤島的風險?
開源只是第一步,后續的社區建設和商業驗證才是真正的考驗。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.