本刊訊 日前,由北京人形機器人創新中心(國地共建具身智能機器人創新中心)主辦的“具身智能技術與應用論壇”在2025世界機器人大會(WRC)期間圓滿舉行。論壇現場,來自全國近三百名具身智能領域專家學者與企業代表齊聚一堂,共同見證具身智能從技術突破走向產業落地的重要進程。
![]()
具身智能技術與應用論壇現場
在具身智能加速演進的當下,全球機器人產業正邁入從“能動”走向“能用”的關鍵窗口期。隨著基礎模型能力躍遷、感知決策系統趨于成熟,以及工業、物流等應用場景需求爆發,技術突破與產業落地的耦合速度前所未有。
![]()
北京人形首席技術官唐劍在現場發言
正是在這樣的背景下,會上,發布了具身智能端到端仿真開發平臺:Demain Horizon(明日地平線),是京灃科技(北京人形與十灃科技合資公司)自主研發的具身智能機器人設計、仿真、優化與訓練一體化平臺。針對當前行業普遍面臨的設計與控制脫節、仿真與訓練割裂、訓練效果難遷移、工具分散流程斷鏈、復雜環境泛化能力差,仿真數據標準缺失問題,提供具身智能機器人開發全流程,融合高保真物理仿真引擎、強化學習訓練系統、結構優化分析工具與嵌入式開發環境,為企業和科研機構提供閉環的具身智能機器人開發能力,包括CAD設計、CAE仿真、離線和在線訓練、動力參數標定、微調遷移、優化驗證六大板塊。核心技術是高保真物理仿真引擎,結合剛柔耦合等技術,處理局部閉環結構,支持多場耦合與建模。提供覆蓋多場景、高精度、高復現能力的專業訓練環境,進一步完善具身智能從“訓練—部署—驗證”的系統能力,賦能開發者與企業快速實現真實落地。
![]()
北京人形創新中心市場部負責人薛明發布Demain Horizon平臺
北京人形圍繞從“最能跑”到“最好用”全面進化的目標,聚焦四項核心技術持續攻堅,并在本次論壇上首次對外發布。“最好用”的人形機器人,不僅要具備穩定可靠的行動能力,更要在真實場景中實現感知、決策、控制與迭代優化的全鏈路協同。這一目標的前提,是同時突破認知理解、通用適配、執行控制與數據供給等核心環節。為此,北京人形在論壇現場正式發布了四項具身智能核心成果——“具身世界模型體系”打通認知與預判能力,“跨本體VLA模型”實現跨本體、多場景、多技能的通用性,“人形機器人全身控制自主導航系統”解決移動與操作協同的執行瓶頸,“千臺機器人真實場景數據采集計劃”為持續進化提供規模化數據“燃料”,共同構成了從“最能跑”到“最好用”的技術閉環,加速具身智能從技術突破邁向產業實用。
![]()
北京人形通用大模型負責人鞠笑竹發布“具身世界模型體系”
北京人形率先推出“具身世界模型體系”,為機器人理解現實與預測變化提供核心大腦。這一體系包含具備物理時空理解與推理能力的72B具身多模態大模型以及實現神經網絡驅動世界模擬器的具身智能世界基座模型。北京人形基于千問72B多模態大模型,通過自研數據清洗與混合模態訓練框架,實現行業首個長視頻理解72B具身多模態大模型PelicanVLM,在現代多模態系統超長視頻語言理解評測集Egoschema、李飛飛的視覺空間智能基準評測集VSI-Bench,多模態大模型物理推理能力大規模基準測試集PhyX等6項具身相關公開評測集上超越GPT-4o、Gemini flash 2.0以及原模型,7個公開評測基準平均性能超過SOTA 11%,達到行業領先水平。基于超過5000小時視頻數據訓練的具身世界模型Wu,則為具身機器人提供了“看見未來”的眼睛,并以未見場景下的泛化能力,解鎖具身無限數據的可能性。
![]()
北京人形具身智能負責人車正平發布“跨本體VLA模型XR-1”
要讓機器人在多本體與多場景中靈活適配,“跨本體VLA模型”成為通用性和擴展性的關鍵支撐。北京人形正式發布跨本體VLA模型 XR-1,讓同一模型實現跨本體運行、多場景適配、多技能調用。在業界充分驗證的 RoboMIND 高質量具身數據基礎上,XR-1 通過積累超百萬量級的自有多本體數據,采用首創的多模態視動統一表征學習,有效利用各類機器人操作數據和海量互聯網視頻數據。在此基礎上,XR-1 利用多模態視動統一表征訓練、跨本體主網絡訓練和特定場景微調這三階段訓練范式,實現機器人跨本體的通用操作知識積累和特定場景的多任務快速學習。在多種機器人本體上大量真實環境測試,實證了該方法的多本體、多技能、多任務、穩健泛化能力,以及其在快速掌握新技能上的巨大潛力。以 XR-1 為基礎,“慧思開物”能夠快速構建面向各類場景任務的通用技能庫,實現多本體、多場景、多任務的能力,顯著減少具身智能應用開發的成本與用時。
![]()
北京人形運控負責人郭宜劼發布“人形機器人全身控制自主導航系統”
在執行控制環節,北京人形以“人形機器人全身控制自主導航系統”突破移動與操作協同的瓶頸,讓機器人既能走穩,更能干活。該通用移動控制系統聚焦機器人在實際工作中的核心能力,由“自主導航系統”和“全身控制系統”組成。自主導航系統具備點對點導航、動態障礙感知和自主避障能力,并搭載OCC環視感知模塊,實現對環境的實時占用與語義感知,拓展了自主與語義導航的應用空間。全身控制系統支持機器人在移動和站立狀態下靈活進行上身動作控制,涵蓋預設動作、遙操作與自主操作開發。通過穩定的質心控制與精準的末端控制,保障操作任務的穩定高效執行。兩大系統協同解決機器人在移動與操作中的關鍵技術難題,賦能開發者實現自主任務規劃與執行,助力人形機器人邁向真正的生產應用。
![]()
北京人形具身數據負責人李廣宇發布“千臺機器人真實場景數據采集計劃”
為讓核心能力持續進化,北京人形推出“千臺機器人真實場景數據采集計劃”,構建全鏈路的數據驅動引擎。這是業內首個千臺級規模的真實場景數據采集計劃,通過搭建遠程遙操作中心,讓千臺機器人走出實驗室,深入工廠車間、物流倉儲、酒店商超等真實工業場景,在執行實際作業任務的同時,持續采集多模態交互數據。與實驗室場景不同,真實場景的環境變化、人為擾動、突發狀況等因素,為具身智能模型提供了更加豐富、真實的訓練素材。這種"邊作業、邊采集"的創新模式,不僅解決了具身智能發展面臨的高質量數據稀缺難題,更構建起規模化數據飛輪,加速模型迭代優化,推動整個行業向"數據富集"跨越,為具身智能產業化落地奠定堅實的數據基礎。
![]()
俄羅斯工程院外籍院士、蘇州大學機電學院院長孫立寧
發表主題演講《微納感知助力具身智能機器人創新發展》
![]()
北京大學計算機學院研究員、博士生導師仉尚航發表主題演講《開放世界具身多模態大模型》
![]()
百度智能云百舸平臺產品負責人周磊發表主題演講《助力具身智能模型加速迭代》
論壇演講環節進一步深化了對具身智能前沿趨勢的探討。探討從具身多模態大模型到決策控制的核心挑戰,深入討論具身智能未來的發展路徑與產業落點。圍繞“具身智能如何從實驗室突破到產業應用的技術躍遷”這一關鍵命題,展開圓桌對話,從技術通路、應用范式到商業模式展開深度交流。
![]()
圓桌論壇環節嘉賓共同探討具身智能如何從實驗室突破到產業應用的技術躍遷
在產業共識基礎上,北京人形進一步推動上下游協同生態的建設。論壇現場,北京人形與多家產業鏈核心企業、科研機構建立合作伙伴關系,搭建具身智能技術向實際場景轉化的橋梁。在合作簽約環節,北京人形與中國電力科學院、百度智能云、特天集團、領益智造等核心機構和企業代表舉行現場簽約儀式,正式達成戰略合作。各方將圍繞協同創新與行業應用,推進具身智能技術在實際場景中的深度落地,共同打造開放共贏的產業生態。
![]()
北京人形與核心機構和企業代表舉行現場簽約儀式
編輯:柯欣
審核:彭濼
終審:柳緒綱
關注我們了解更多資訊
《中國科技信息》雜志社
主管單位:中國科學技術協會
主辦單位:中國科技新聞學會
在線投稿平臺:www.cnkjxx.com
新媒體內容合作聯系微信:cnkjxx1989
雜志收錄情況:《中國知網》《中國期刊核心期刊(遴選)數據庫》《中國學術期刊綜合評價數據庫(CAJCED)統計源期刊》《中國期刊全文數據庫(CJFD)》《中國科協、中國圖書館學會(解讀科學發展觀推薦書目)》
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.