![]()
通過數據+賽事的雙輪驅動,樂聚補齊了機器人落地的短板。
提起機器人,你腦海里浮現的是什么?
是春晚舞臺上整齊劃一、舞姿曼妙的舞林高手?還是展會上只會機械地遞咖啡、轉圈圈的氣氛組?
在很多人印象中的機器人,雖然 Demo 看起來無所不能,但真要讓它去廚房幫你拿個杯子,它可能下一秒就在地毯上表演平地摔,或者對著墻角陷入漫長的深度思考。
這種大腦想得美,小腦跟不上的尷尬現象,被研究者戲稱為“兩層皮”:決策層(大腦)滿腹經綸,但執行層(小腦)卻步履蹣跚;或者運控極其精準,卻完全不具備應變能力。兩套系統各說各的話,一到復雜場景就宕機。
這種斷層,正是制約人形機器人從實驗室走向真實場景的最大藩籬。
近日,樂聚機器人發布的科研框架 2.0,試圖通過一套深度集成的“大小腦一體化”邏輯,打破這道阻礙機器人走進現實世界的圍墻。
01
具身機器人卡在哪?
要理解樂聚科研框架 2.0 的目標與作用,必須先看清行業的痛點。
目前具身智能研發面臨著軟硬割裂、流程碎片化、研究與實際應用落差困局。
一方面,行業普遍將機器人的功能拆分為兩個獨立系統:
?大腦(大模型/任務規劃):負責理解語義、拆解任務、自主決策。
?小腦(運動控制):負責平衡、運動、多關節協同。
這種架構看似分工明確,實則隱患重重。
機器人的大腦決策與小腦運控往往互不通、不同步,導致其在處理長時序復雜任務時表現僵硬,難以實現類人級別的應變。
![]()
另一方面,研發工具鏈極度分散,從數據采集、仿真訓練,到真機部署的各個環節互不兼容,研發時要將大量精力耗費在環境適配和重復造輪子上,阻礙了算法創新。
研究人員常面臨采數 1 天、調參 3 天、部署卡殼 1 周的窘境,這種碎片化導致大量精力被浪費在環節銜接上,而非核心科研。
此外,高質量真機數據的稀缺與硬件尺寸的限制,也使得研發成果往往局限于實驗室 Demo,難以跨越Sim2Real(仿真到真機)的橫溝。
02
大小腦一體化,終結思考與動作的斷層
樂聚科研框架 2.0 的核心解法非常明確:重構大小腦的協同邏輯,實現感知、決策、執行的端到端打通。
在這套框架下,大腦與小腦不再是兩套說不同方言的系統。該框架統一兼容了全尺寸機器人平臺,確保了從頂層決策到底層硬件執行的高速通訊協議對齊。
這種一體化設計意味著,機器人在動作執行的過程中,大腦實時感知環境變化,并動態調整小腦的運控參數。
機器人的能力也會進化,從機械執行,到類人作業。
依托于 OpenLET 社區與樂聚 LET 全身運控/靈巧操作數據集,樂聚的小腦系統可以穩定輸出高動態、流暢的動作。
與之相配合的是,大腦具備了極強的長程任務拆解與場景泛化能力。在調酒、分揀等多步驟復雜任務中,機器人可以自主規劃路徑,根據物品的擺放位置靈活調整抓取力度與角度。
![]()
長程任務全流程自主操作演示
現在很多研究機構使用的,是 1 米左右的中小尺寸機器人,但這會帶來泛化難題:小機器人無法完成彎腰取地上的重物、伸手取高架上的零件等真人日常動作。這種空間受限的數據,在真實的工業或家庭場景中幾乎沒有落地價值。
樂聚科研框架 2.0 則引入了 1.70 米全尺寸全身實時遙操系統。
?實時同步:支持真人動作的毫秒級實時同步。
?全自由度:支持彎腰、下蹲、全身聯動,完全貼合人類的作業姿態。
?真實覆蓋:1.7 米的身高確保了操作空間能覆蓋真實的工業和家庭環境高度需求。
![]()
樂聚KUAVO5全尺寸全身遙操演示
通過這種全尺寸遙操,科研人員可以在更貼近現實的環境下采集數據、驗證算法,讓科研成果不再僅僅是實驗室里的 Demo,而是直接面向可應用的真實任務。
以上種種轉變,目的就是讓機器人從簡單的工具,升級為具備了思考+執行能力的智能體。
03
一站式工具全家桶:拒絕重復造輪子
具身智能研發的另一大門檻,在于極度碎片化的開發鏈條。與外界的理解相反,看似并不性感的工程適配,往往會占據大量研發時間,拖慢創新進度。
為了終結這種低效循環,樂聚科研框架 2.0 提供了一站式閉環工具鏈。
在小腦運控工具上,樂聚提供了三大核心倉庫:
? Leju-GMR: 專注于動作重定向。它能精準地將人類的動作映射到機器人的關節上,確保數據采集的原汁原味。
? LejuLab-Train:內置多種任務范式。實現零基礎上手,完成機器人行走、倒地起身和舞蹈的場景任務,解決以往研究中訓練范式不標準、難以快速上手的問題。
? LejuLab-Deploy: 實現了跨機型的一鍵式快速部署。無論是中尺寸的教學演示機,還是全尺寸的工業實操機,都能做到開箱即用。
![]()
基于真人舞蹈軌跡的強化學習訓練演示
在大腦的具身模型長程任務規劃和泛化能力上,提供一整套訓練推理部署的工具鏈和數據集。框架配套了高質量的具身任務數據集,開發者可以利用這些數據直接進行模型訓練。
數據永遠是 AI 最好的老師,但在機器人領域,高質量的專家數據極度稀缺。
為此,科研框架2.0還提供全尺寸全身實時遙操技術,支持真機數據采集和模型二次訓練。
全身遙操提供的數據集、基準模型和部署框架,用戶可以進行二次訓練,部署到真機上進行高質量操作數據的采集。
這種全鏈路工具鏈的價值在于,它將開發者從底層代碼的泥潭中拉了出來,讓他們能專注在更具價值的算法創新上。
04
補齊落地最后一塊拼圖
有了框架和硬件,接下來就是如何讓這套系統跑起來。
樂聚通過數據+賽事的雙輪驅動,補齊了落地的短板。
就在前不久,開放原子具身智能開源數據集社區正式啟動,并發布 OpenLET 全身運控數據集。該社區由開放原子開源基金會發起建立,樂聚機器人牽頭建設,聯合了一眾具身智能企業和科研院校,是一個聚焦具身智能開源數據集和算法的社區。
![]()
目前,針對真機數據采集成本高、多模態數據零散的痛點,樂聚提供了開源的數據底座,里面包含了6 萬+分鐘的開源真機數據。這些數據覆蓋了工業、商業、家庭等117 項原子技能,涵蓋了力控、觸覺、全身關節等全方位維度。
此外,樂聚還對接ICRA、天池、機器人及人工智能、挑戰杯等高含金量賽事,為科研團隊提供真機評測資源。
這種數據訓練—算法迭代—賽事驗證—產業轉化的閉環,讓算法不再只是論文里的跑分,而是能真正走出實驗室,進入工廠和家庭。
可以看出,樂聚科研框架 2.0 的發布,不僅是一次簡單的工具迭代,更是對機器人研發范式的重新思考。
通過將大腦的邏輯能力與小腦的運動能力深度整合,并輔以全尺寸硬件支撐和海量開源數據,樂聚正在實現普通人對機器人的最終幻想:讓它不再是冷冰冰的執行機器,而是能夠通過學習和思考,最終成為在復雜現實世界中工作的主體。
當大腦與肢體終于不再割裂,當機器人能夠像人類一樣,將思考與動作無縫融合,那些曾經只存在于科幻電影中的應用場景,才真正具備了商業化落地的可能。
未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!
公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.