在計(jì)算機(jī)視覺領(lǐng)域,“ImageNet時(shí)刻” 的出現(xiàn)曾經(jīng)改變了一切。它不僅提供了數(shù)據(jù),更定義了一個(gè)時(shí)代的研究范式。今天,具身智能同樣站在這樣的臨界點(diǎn)上。
2024年末,智元發(fā)布具身智能行業(yè)首個(gè)百萬真機(jī)數(shù)據(jù)集AGIBOT WORLD時(shí),我們嘗試為這個(gè)領(lǐng)域提供一個(gè)新的起點(diǎn)。而現(xiàn)在,隨著研究不斷深入,新的需求也變得更加明確:研究者和開發(fā)者需要的,不再只是數(shù)據(jù)量,而是能夠真實(shí)承載物理世界復(fù)雜性的高質(zhì)量數(shù)據(jù)。
基于這樣的創(chuàng)新研究需求,智元機(jī)器人正式開源—— AGIBOT WORLD 2026 數(shù)據(jù)集,首個(gè)覆蓋具身智能全域研究的開源數(shù)據(jù)集。
該數(shù)據(jù)集基于海量真實(shí)場景,圍繞五大具身領(lǐng)域研究主題構(gòu)建,每個(gè)主題均設(shè)有專屬采集方法與精細(xì)化的標(biāo)注體系,以精準(zhǔn)支持不同細(xì)分領(lǐng)域研究者的需求。數(shù)據(jù)集將分五個(gè)階段持續(xù)開源,覆蓋更多主題與場景,旨在為具身領(lǐng)域提供覆蓋廣泛、即取即用的高質(zhì)量真實(shí)數(shù)據(jù)。同時(shí),我們通過數(shù)字孿生技術(shù),在仿真環(huán)境中1:1重建真實(shí)場景并采集數(shù)據(jù),仿真數(shù)據(jù)同步開源。
我們希望通過全新的具身數(shù)據(jù)集明確一個(gè)更深遠(yuǎn)的方向:讓機(jī)器人走出實(shí)驗(yàn)室,在真實(shí)世界中呼吸、學(xué)習(xí)、進(jìn)化。
- 項(xiàng)目主頁:agibot-world.com
- 開源地址:huggingface.co/datasets/agibot-world/AgiBotWorld2026
01/
具身數(shù)據(jù),不再是“理想環(huán)境”的產(chǎn)物
長期以來,機(jī)器人數(shù)據(jù)往往誕生于高度控制的環(huán)境之中。標(biāo)準(zhǔn)的樣板間、整潔的桌面、預(yù)設(shè)的初始位置、可預(yù)期的操作路徑,讓模型能夠快速學(xué)習(xí),卻難以適應(yīng)真實(shí)世界的復(fù)雜性。
而現(xiàn)實(shí)卻從來不是這樣的。一個(gè)普通的家庭廚房,可能同時(shí)存在遮擋、雜亂擺放、光照變化和動態(tài)干擾;一個(gè)商業(yè)空間中的任務(wù),也往往需要在不確定條件下完成多步驟操作。正是在這些細(xì)節(jié)之中,機(jī)器人被真正賦予作業(yè)能力。
AGIBOT WORLD 2026 的所有數(shù)據(jù)均采集自100%真實(shí)環(huán)境。覆蓋商業(yè)空間、酒店餐飲、家居、安防場景、工業(yè)物流等場景,復(fù)雜任務(wù)與隨機(jī)干擾并存,每一次操作都發(fā)生在真實(shí)世界的上下文之中。這意味著,數(shù)據(jù)不再是“被設(shè)計(jì)”的,而是“被經(jīng)歷”的。也正因如此,每一條數(shù)據(jù)都天然具備遷移到真實(shí)應(yīng)用中的價(jià)值。
![]()
02/
新一代硬件采集,靈巧本體豐富末端
數(shù)據(jù)的質(zhì)量,不僅取決于場景,也取決于采集它的“身體”。
AGIBOT WORLD 2026 基于智元新一代以工業(yè)級標(biāo)準(zhǔn)打造的精靈G2通用機(jī)器人完成采集。這一硬件平臺搭載高性能關(guān)節(jié)執(zhí)行器、多類型傳感器、高性能域控制器,支持高精度力控作業(yè),并提供豐富的二次開發(fā)接口。結(jié)合Swift Picker夾爪與智元OmniHand五指靈巧手,同步采集多視角RGB(D)、觸覺、LiDAR點(diǎn)云、IMU及全身關(guān)節(jié)狀態(tài)、力傳感器等多模態(tài)傳感數(shù)據(jù)。
在同一任務(wù)中,機(jī)器人不僅“看到”,還“感受到”,并實(shí)時(shí)記錄自身的運(yùn)動與反饋。這種多模態(tài)的統(tǒng)一采集,使得數(shù)據(jù)天然具備更強(qiáng)的表達(dá)能力,也更貼近真實(shí)部署時(shí)的系統(tǒng)狀態(tài)。
![]()
03/
讓數(shù)據(jù)真正“像機(jī)器人在做事”
在采集方面,更進(jìn)一步的問題是:數(shù)據(jù)是否真的反映了機(jī)器人“完整地在執(zhí)行任務(wù)”?我們這一點(diǎn)上做了關(guān)鍵突破。
首先,全身控制(Whole Body Control)的引入,讓機(jī)器人不再只是局部執(zhí)行動作,而是像人一樣以完整的身體參與任務(wù)。機(jī)械臂、腰部與手部在統(tǒng)一控制下協(xié)同運(yùn)作,動作更加連貫自然,也更接近人類在現(xiàn)實(shí)世界中的行為方式。很多過去依賴“拼接動作”的任務(wù),現(xiàn)在可以被一體化完成,這種能力會直接體現(xiàn)在數(shù)據(jù)之中。
與此同時(shí),超視距遙操作構(gòu)建了一種全新的采集方式。數(shù)采員可以跨地域地實(shí)時(shí)控制機(jī)器人,并通過第一視角,與機(jī)器人共享同一感知空間,使操作過程更加直觀與連續(xù)。人不再是“外部指揮者”,而是“在機(jī)器人身體中行動”,這種一致性,使采集到的數(shù)據(jù)天然具備更強(qiáng)的可遷移性,也成為釋放全身控制能力的最佳范式。
在更微觀的層面,力控采集的引入進(jìn)一步改變了數(shù)據(jù)的表達(dá)方式。數(shù)據(jù)不再只是運(yùn)動軌跡的記錄,而是包含了真實(shí)的接觸與力反饋信息。機(jī)器人在“觸碰世界”的過程中所感受到的變化,被完整保留下來,從而使模型能夠?qū)W習(xí)柔順操作、復(fù)雜接觸乃至精細(xì)的物理交互。
當(dāng)這三種能力共同作用時(shí),數(shù)據(jù)不再只是“動作的集合”,而是一次完整的、真實(shí)發(fā)生的物理行為過程。
![]()
04/
工業(yè)級標(biāo)準(zhǔn),讓數(shù)據(jù)可用可靠
所有數(shù)據(jù)在進(jìn)入 AGIBOT WORLD 2026 數(shù)據(jù)集之前,都經(jīng)歷了嚴(yán)格的驗(yàn)證流程。原始數(shù)據(jù)采集完成后,都將通過算法策略訓(xùn)練與真機(jī)測試,確保數(shù)據(jù)采集的有效性。所有數(shù)據(jù)均進(jìn)入嚴(yán)格的 DaaS工業(yè)質(zhì)檢流水線,依據(jù)統(tǒng)一標(biāo)準(zhǔn)進(jìn)行多輪篩查與清洗,每一個(gè)環(huán)節(jié)都圍繞一個(gè)目標(biāo)展開:確保交付結(jié)構(gòu)清晰、標(biāo)注精準(zhǔn)、可直接用于模型訓(xùn)練的高質(zhì)量數(shù)據(jù)。
這也是智元始終堅(jiān)持的一個(gè)原則——數(shù)據(jù)不僅要“看起來正確”,更要“用起來可靠”。
![]()
05/
五大階段逐步登場,正式開源第一期“模仿學(xué)習(xí)”主題
創(chuàng)新自由采集范式
人類通過觀察與模仿掌握復(fù)雜技能,而機(jī)器人同樣可以借助專家示范,快速建立對任務(wù)的理解與執(zhí)行能力,學(xué)習(xí)并泛化復(fù)雜的物理交互技能。這便是具身研究領(lǐng)域的關(guān)鍵方向之一“模仿學(xué)習(xí)”。AGIBOT WORLD 2026 開源的第一期,正是圍繞這一研究方向展開。
不同于傳統(tǒng)固定腳本的采集方式,我們引入了智元?jiǎng)?chuàng)新的“自由采集范式”。數(shù)據(jù)采集員在真實(shí)場景中,根據(jù)實(shí)時(shí)情況靈活設(shè)計(jì)操作流程,使數(shù)據(jù)自然覆蓋不同物體種類、不同操作順序與不同動作路徑的組合,全面覆蓋多維度泛化需求。機(jī)器人通過靈活移動底盤、頭部運(yùn)動、腰部旋轉(zhuǎn)及升降俯仰等擬人運(yùn)動機(jī)制,實(shí)現(xiàn)了高效、自然且極具遷移價(jià)值的數(shù)據(jù)構(gòu)建。
這樣的采集范式讓數(shù)據(jù)不再只是“標(biāo)準(zhǔn)答案”,而是一種具有泛化能力的經(jīng)驗(yàn)集合。
![]()
數(shù)據(jù)標(biāo)注體系創(chuàng)新:從“動作”到“理解”
真實(shí)數(shù)據(jù)只是起點(diǎn),更關(guān)鍵的是如何讓機(jī)器人真正“理解”。
在AGIBOT WORLD 2026數(shù)據(jù)集中,我們圍繞具身智能的核心問題,構(gòu)建了一套覆蓋多層級的標(biāo)注體系。一個(gè)任務(wù)不再只是簡單的動作序列,而是被拆解為從目標(biāo)描述到步驟執(zhí)行,再進(jìn)一步細(xì)化到原子技能(如抓取、放置)、2D邊界框等屬性標(biāo)注的完整結(jié)構(gòu)。機(jī)器人不僅可以看到“做了什么”,還可以理解“為什么這么做”。
更重要的是,我們在數(shù)據(jù)中完整保留了錯(cuò)誤修正過程的軌跡記錄。現(xiàn)實(shí)世界中,沒有任何操作是完美的,真正的智能體,必須具備在失敗中調(diào)整路徑的能力。當(dāng)這些過程被記錄、被標(biāo)注、被學(xué)習(xí),模型才開始兼具任務(wù)精準(zhǔn)性與自主糾錯(cuò)能力的魯棒性。
![]()
具身智能的下一階段,會發(fā)生在真實(shí)世界里。它發(fā)生在我們每個(gè)人每天生活的廚房、商場、超市里,也發(fā)生在每一個(gè)需要被自動化與智能化的場景中。智元推出 AGIBOT WORLD 2026 所做的,是為這一階段提供技術(shù)底座。我們希望這不僅是一個(gè)數(shù)據(jù)集,更是一個(gè)起點(diǎn)。一個(gè)讓機(jī)器人從“可以被展示”,走向“可以被使用”的起點(diǎn)。
今天,我們正式向全球研究者、開發(fā)者開源 AGIBOT WORLD 2026 數(shù)據(jù)集。無論是學(xué)術(shù)界、還是產(chǎn)業(yè)界,都可以基于這一數(shù)據(jù)基礎(chǔ),探索更真實(shí)、更可靠的具身智能能力。如果說過去的機(jī)器人更多停留在實(shí)驗(yàn)室,那么接下來,它們將真正進(jìn)入現(xiàn)實(shí)世界。
而這一切的發(fā)生,正從數(shù)據(jù)開始。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.