來源:科技日報
科技日報記者 華凌
12月18日,北京人形機器人創新中心正式開源國內首個且唯一通過具身智能國標測試的具身VLA大模型XR-1,同步推出配套數據基礎RoboMIND 2.0與高保真數字資產數據集ArtVIP最新版,構建全鏈條開源生態,推動國內具身智能行業邁向“全自主、更好用”新階段。
![]()
XR-1作為面向具身小腦能力的核心模型,破解了“視覺感知”與“動作執行”割裂的行業痛點。其依托跨數據源學習、跨模態對齊、跨本體控制三大核心能力,通過首創的UVMC技術搭建視覺與動作的映射橋梁,讓機器人具備“本能反應”,可自主應對復雜環境與突發情況。該模型在11月中國電子技術標準化研究院“求索”具身智能測評中,成為唯一通過測試的VLA模型,獲頒相關測試證書。在實際應用中,搭載XR-1的機器人可完成連續穿行5扇門、精準分揀物料等復雜任務,全程無需人工干預。
![]()
此次同步開源的RoboMIND 2.0數據集實現全面升級,操作軌跡數據增至30萬條,覆蓋11個工業、商用、家庭場景,新增1.2萬條帶觸覺操作數據,支持機器人長程協作任務訓練。ArtVIP則提供超1000個高保真數字孿生鉸接物品,其仿真數據與真機數據結合使用,可使機器人任務成功率平均提升超25%。二者為XR-1提供堅實數據支撐,大幅降低模型訓練門檻。
(北京人形機器人創新中心供圖)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.