![]()
機器人前瞻(公眾號:robot_pro)
作者 許麗思
編輯 漠影
具身智能要想從能跑能跳走向能干活的真實場景,除了身體的運動能力外,雙手還必須能在復雜物理世界里穩定、可控地完成精細操作。
從家庭場景中的整理收納,到物流倉庫分揀形狀各異的包裹,再到日化車間進行生產作業等等,這些看似簡單的動作,背后都需要機器人的雙手對力度、材質、接觸狀態的精準感知與判斷。
機器人前瞻1月8日報道,近日,樂聚機器人正式開源首批 800 條高質量靈巧操作數據,這是國內首次面向真實作業場景的人形機器人靈巧操作真機數據,填補了國內填補高質量靈巧操作數據空白,已在樂聚OpenLET 社區上線。

![]()
▲靈巧手指尖觸覺&腕部六維力矩
樂聚OpenLET社區是樂聚機器人在開放原子開源基金會平臺發起建立的開源社區,以“LET人形機器人真機數據集”為核心資產,聚焦人形機器人領域的真實數據開源與生態共建,為全球開發者、科研團隊及企業搭建協作橋梁,加速具身智能技術的研發與產業落地。
值得一提的是,后續樂聚還將開放工業場景的靈巧操作數據,相關動態可通過樂聚 OpenLET 社區持續關注。
這一數據集的開源,填補了具身智能領域高質量靈巧操作數據的迫切需求,將為行業技術創新提供關鍵數據支撐。
一、高質量物理交互數據缺失,機器人“看得見摸不準”
大模型與多模態融合技術為具身智能產業帶來了巨大的發展機會,機器人不再局限于預設程序的機械執行,而是具備了更強的環境適應性,能夠在復雜多變的環境中完成任務,讓行業看到了規模化落地的曙光。
大模型帶來了強烈的機器人能力躍遷的觀感,但聚焦到操作現場,我們會發現,機器人雖然擁有了更聰明的大腦,知道要干什么,但常常“控制不住手”。
高質量物理交互數據的缺失,正是制約具身智能技術落地的核心一環。在真實場景中采集數據時,受到環境復雜性、數據采集設備限制等因素的影響,數據質量參差不齊,遠遠無法滿足模型訓練的需求。
同時,行業長期高度依賴視覺方案,機器人在面對抓取、裝配等精細操作時,力度、材質、摩擦這些關鍵信息很難被準確捕捉,自然容易陷入“看得見摸不準”的窘境。
高質量物理交互數據的缺失,還意味著行業容易陷入的“重復造輪子”的情況。不少企業、科研團隊都需要從零開始搭建采集系統、積累數據,不僅造成了大量的資源浪費,更延緩了整個行業的技術迭代速度。
正是洞察到行業這些痛點,樂聚機器人選擇開源靈巧操作數據集,打破了單一視覺數據的局限,為機器人模型訓練提供了更多維、精細的多模態數據來源。
二、以真實場景為核心,數據維度更豐富
樂聚此次開源的靈巧操作數據集,聚焦于真實作業場景,覆蓋家庭、物流、日化三大具身智能落地的關鍵領域,包含 800 條高質量真機操作數據,并且數據維度更加豐富。
該數據集最核心的升級,在于新增兩類關鍵數據維度:觸覺數據與六維力數據,這也是靈巧操作里最關鍵、卻最難從視覺里獲取的訓練信號。
![]()
觸覺陣列數據:6×12×5指尖觸覺傳感器采集的時序壓力數據,能讓靈巧像人手一樣,在觸摸到物體的時候就能感知到材質、形狀和接觸狀態;
六維力數據:記錄抓取、放置等動作的三維力和力矩信息,精度達±0.5%。
這兩類數據,能夠讓機器人在物理交互時理解該怎么接觸、該用多大力、力要往哪使,從而顯著提升精細操作的穩定性、魯棒性。
該數據集還包含了另外三大維度:
RGB-D視覺數據:提供高分辨率彩色圖與稠密深度圖,精準還原場景完整外觀與三維空間信息,為機器人定位物體提供基礎;
同步動作信息:配套手部關節角度、速度等實時數據,實現 “視覺 – 力觸 – 動作” 的全鏈路對齊,讓模型清晰理解感知與動作的關聯邏輯;
多場景標注:涵蓋快遞分揀、快消上料、家庭物品抓取等典型任務,每條數據均附帶場景類型、物體材質、操作目標等多維度語義標簽,支持自然語言與動作對齊建模。
為確保數據的可用性與一致性,避免因設備差異導致的數據偏差,統一采集本體至關重要。該數據集基于樂聚新一代靈巧手完成統一采集,這款靈巧手以 “全感知升級” 為核心,還融合了實時力覺反饋與指尖觸覺感知技術。
這款靈巧手160–185°/s 的關節速度確保操作高效響應,0.35 秒的開合響應時間能夠適配物流分揀等高速作業場景,±0.2 毫米的定位精度實現毫米級精準控制,滿足日化抓放、工業裝配等精細操作需求。
從家庭場景穩定抓取水果、快消場景無損抓放物料到快遞場景高效分揀,它都能精準地完成。

▲家庭場景穩定抓取水果

▲快消場景無損放料

▲快遞場景高效分揀
三、從數據集到產業飛輪
相較于仿真數據在模型訓練存在的Sim2real鴻溝,真實數據源自真實環境中的物理交互,能精準還原力覺反饋、環境干擾等仿真數據難以模擬的細節,同步采集多維度數據,優勢顯著。
對模型訓練而言,優質的真實靈巧操作數據能夠提升訓練效能與實用性,推動機器人從“看得見”向“操作得準”跨越,把演示成功率變成持續可復現的真實作業能力,其核心價值已在多個真實場景中得到驗證。
該數據集多模態的觸覺-視覺融合、力控策略的不斷優化,打破了純視覺方案的局限,賦予靈巧手像人手一樣的環境感知能力,構建的穩定物理交互閉環,提升復雜環境下的操作穩定性。
模型的泛化能力在數據集的賦能下大幅增強,數據集覆蓋不同材質、不同形態、不同場景的多樣化操作樣本,使得模型能夠靈活應對各類物體的操作需求,跨場景適配能力顯著提升。
高質量的物理交互數據能夠顯著提升任務成功率,這一點已在紙箱拆垛、順豐快遞分揀等場景得到驗證,機器人能實時感知物體狀態和力度,就算遇到條碼遮擋、物品破損、表面濕滑等復雜情況,也能通過觸覺補償快速調整操作策略,精準完成任務。

▲紙箱拆垛

▲快遞分揀
除此之外,該數據集還有望降低了行業研發落地門檻,配套的數據工具包和示例代碼開箱即用,能夠快速將數據應用于模型訓練,大幅縮短研發周期。
靈巧操作數據集的價值遠不止于單一技術優化,還打通了“算法研究 — 模型訓練 — 場景測試 — 產業驗證”的全鏈路環節。它既能夠支撐觸覺識別模型的訓練評估,又能為抓取策略、力控算法提供真實驗證環境,更深度賦能多模態融合、具身推理等前沿方向研究,推動具身智能技術的快速迭代與規模化落地。
結語:高質量物理交互數據,加快機器人進化與落地
當各大機器人廠商加速把機器人推向工業、商業與家庭等更復雜的真實場景,行業對高質量物理交互數據的需求水漲船高,這是從展臺演示跨越到長期穩定運行的關鍵一環。
在這樣的背景下,樂聚選擇開源靈巧操作真機數據,不只是一次資源共享,也是向行業輸出了標準化數據建設的實踐經驗。這有望幫助機器人提升動作精度與環境適應能力,增強跨場景泛化能力,縮短從算法研究到場景驗證、再到規模化部署的鏈路,加快更多應用落地,讓真正的商業化更早發生。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.