![]()
MiMo-Embodied 證實核心感知與推理能力可在多場景間共享。
作者丨鄭佳美
編輯丨馬曉寧
![]()
在發布多款自研大模型之后,小米又交出了一份重要成果。
小米具身智能團隊正式發布了首篇論文,提出統一具身智能與自動駕駛的新模型MiMo-Embodied。模型在 17 項具身任務和 12 項自動駕駛任務中取得領先表現,更重要的是,它從工程層面展示了這兩個長期分離的技術領域可以在同一框架下實現統一建模。
小米智駕團隊的郝孝帥是論文的核心第一作者,小米智駕團隊首席科學家陳龍博士擔任project leader。
該模型是陳龍團隊的首個重大成果。由于以羅福莉團隊之前發布的MiMo-VL作為基座進行了continue-train,這也是文章作者欄中有“羅福莉”的原因。此前有媒體曾誤解為羅福莉首個小米成果,也引發了當事人發朋友圈澄清事實。
![]()
這篇論文關注的核心問題是:同一套視覺語言模型,能否在面對“抓取物體”與“駕駛車輛”這兩類差異極大的任務時,仍保持一致的理解方式和決策邏輯。
這一問題長期困擾多場景智能體的研究,而 MiMo-Embodied 正是小米對這一方向給出的首次系統回應。
![]()
01
多任務統領式領先
這篇論文中主要圍繞兩個主要方向進行了系統實驗:具身智能與自動駕駛。
整體結果非常突出,可以用一句話概括:MiMo-Embodied 在 17 個具身智能任務和 12 個自動駕駛任務中,都取得了全面領先的表現,在多數關鍵基準上都處于第一。
![]()
在具身智能方面,實驗評測涵蓋可供性推斷、任務規劃和空間理解三個能力。
其實可供性推斷的測試主要評估模型是否能夠正確理解物體的使用方式。例如識別物體上可操作的部位、精確指出指定位置、判斷場景中哪些區域可以放置物品,或在多個相似物體中找到與描述相符的那一個。
在這類任務中,MiMo-Embodied 在五個主流基準上均表現突出。在 RoboRefIt 中,它可以從一組高度相似的物體中準確定位目標;在 Part-Afford 中,它能夠識別物體的可操作部件;在 VABench-Point 中,它能根據文字描述精確給出坐標,整體表現達到當前最優水平。
![]()
任務規劃方面的測試關注模型根據情境推斷下一步行動的能力。例如根據視頻判斷任務的后續步驟、依據目標從多個候選動作中選擇正確的操作,或根據已有步驟推斷接下來可能發生的事件。MiMo-Embodied 在 RoboVQA、Cosmos-Reason1 和 EgoPlan2 等基準中均處于領先位置,說明其在行動推理與任務結構理解方面具有較強的綜合能力。
![]()
空間理解相關任務要求模型對場景中的空間關系有準確把握,包括判斷物體之間的相對方位、在圖像中定位對象、輸出精確坐標,或回答涉及空間推理的文字問題。
在九個代表性測試中,MiMo-Embodied 在 CV-Bench、RoboSpatial、RefSpatial 與 CRPE-relation 等核心基準上取得最高分,在 EmbSpatial 與 SAT 等任務中也保持在第一梯隊,體現出扎實的空間推理能力。
![]()
在自動駕駛方面,實驗同樣覆蓋三個核心模塊:場景感知、行為預測和駕駛規劃。
場景感知的測試要求模型看清路上的車輛、行人和交通標志,描述場景內容,識別潛在風險,并輸出關鍵目標的位置。MiMo-Embodied 在 CODA-LM 等復雜場景理解任務中表現與專用模型相當甚至更好,在 DRAMA 中對關鍵物體的定位精度最高,在 OmniDrive 與 MME-RealWorld 中也保持領先。
![]()
行為預測要求模型能夠推測其他交通參與者可能采取的動作,例如車輛是否會變道、是否會讓行,或從多視角畫面中理解整體交通流動趨勢。MiMo-Embodied 在 MME-RealWorld 與 DriveLM 等基準中表現穩定且領先,顯示出對動態交通場景的良好理解能力。
而駕駛規劃則要求模型給出車輛應當采取的動作,并解釋其決策依據,同時保證遵守交通規則、避免風險。MiMo-Embodied 在多個核心基準上取得領先,包括在 LingoQA 中準確解釋駕駛行為,在 DriveLM 中從多視角場景推導合理規劃,在 MAPLM 中理解道路結構參與決策,在 BDD-X 中清晰說明駕駛理由,整體表現甚至超過一些專門為自動駕駛設計的模型。
![]()
02
從單域到跨域的四階段訓練框架
實驗結果之外,團隊還構建了一套由四個階段組成的訓練流程,使模型的能力從最初的具身理解,逐步拓展至自動駕駛決策,并進一步發展出可解釋的推理能力與更高的輸出精度。
值得注意的是,這四個階段均以羅福莉所屬的 Xiaomi LLM-Core(大語言核心團隊)推出的MiMo-VL作為統一的基礎模型展開。整個訓練體系以能力逐級遞進為結構,每個階段都為下一階段奠定能力基礎,從而形成一套連續且可擴展的模型演進路徑。
![]()
在第一階段中,模型主要接受具身智能相關的監督訓練,訓練數據覆蓋可供性推斷、任務規劃和空間理解等任務。
這些數據讓模型能夠先掌握如何看懂物體的結構、識別可操作部位、理解場景中的空間關系,并能對一段任務過程進行正確的下一步推斷。經過這一階段,模型具備了基本的空間推理能力、初步的任務規劃能力,以及對可供性的感知與表達能力。
第二階段專門引入自動駕駛領域的監督訓練。模型開始學習處理復雜的交通場景,訓練數據包括多視角相機畫面、駕駛視頻、自動駕駛問答、關鍵目標的坐標標注以及與道路結構相關的知識。
通過這些訓練,模型能夠理解道路環境、讀取交通元素、預測其他交通參與者的行為,并給出符合規則的駕駛規劃。此階段使模型掌握動態場景分析、意圖預測以及駕駛決策等關鍵自動駕駛能力。
第三階段加入鏈式思維訓練,也就是讓模型學習“把推理過程說出來”。訓練數據含有明確的推理步驟,模型在此階段被引導按照“觀察場景→分析要素→提出候選→給出理由→得出結論”的順序組織回答。
結果是模型開始能夠自洽地解釋自己的判斷邏輯,不論是在具身任務還是在駕駛任務中,都能給出清晰、可讀的推理鏈條,顯著提升輸出的透明度與一致性。
![]()
最后在第四階段進行強化學習微調,目的在于進一步提升模型在細節層面的準確度。例如,多選題會根據是否答對給予獎勵;定位類任務通過預測區域與真實區域的 IoU 分數提供更精細的反饋;推理回答的形式會通過格式模板進行嚴格約束。
通過這些規則化的獎勵機制,模型在坐標定位精度、推理質量及細節判斷能力上都有明顯增強,最終成為一個在多任務場景中都能穩定發揮的統一具身模型。
![]()
03
打通兩個世界的第一步
這項工作的價值不只在于模型性能領先,而在于它解決了長期困擾業界的一道核心難題:機器人和自動駕駛本應屬于兩個完全不同的世界,卻第一次被放進了同一個大腦里。
過去的模型要么專門做室內具身任務,要么專門做自動駕駛,兩個方向無論是場景、感知還是動作都完全割裂,彼此幾乎沒有可共享的能力。
但 MiMo-Embodied 的實驗結果證明,底層的關鍵智能能力,空間理解、因果推理、動態場景分析,其實可以跨域遷移。機器人理解桌面物體的方式,可以幫助汽車理解路口;汽車處理交通動態的能力,也能讓機器人更好地規劃任務步驟。
這意味著“智能體”的邊界第一次被打通。
除此之外,為了驗證這種跨場景融合是否真正可行,團隊還專門構建了一個前所未有的大規模評測體系:17 個具身智能基準加上 12 個自動駕駛基準,覆蓋可供性、規劃、空間理解,以及感知、預測、駕駛決策等多維能力。
模型在如此復雜而全面的體系下依舊保持穩定領先,證明它不是“弱項補短”,而是實實在在具備跨領域的泛化智能。這不僅驗證了模型本身,也相當于是替整個行業點亮了“跨域評測”的新標準。
更重要的是,MiMo-Embodied 提供了一種可復制的范式。論文提出的四階段訓練路線:先學具身,再學駕駛,再疊加鏈式推理,最后用強化學習摳細節,實際上就是一條通向“通用具身智能體”的訓練路徑。
它告訴行業:智能體能力并不必須分散在不同的模型中,而可以像課程一樣逐層積累,讓統一模型在多種復雜場景中都保持穩定表現。
而從產業角度看,這更像一次“開鎖”的動作。小米把跨域智能的這把鑰匙直接扔給了開源社區,意味著未來即便是小團隊,也能在這套基礎上做改造,做出既能開車又能操作機械臂的多場景智能體。
電動車越來越像“帶輪子的智能體”,機器人越來越像“帶四肢的智能體”,而 MiMo-Embodied 的出現,讓這兩條原本平行的技術路線第一次有機會匯流。
更難得的是,這不是一個性能堪堪夠用的概念模型,而是在 17 個具身測試 + 12 個自動駕駛測試里都能打、還能贏的大模型,連不少閉源私有模型都被它壓了一頭。
這一工作所展示的,早已不只是一種新的模型形態,而是向行業明確證明:自動駕駛與具身智能的能力可以在同一個體系中進行訓練、評測和集成部署。這種統一方式為未來智能體的發展打開了新的方向,可能會重新塑造多場景智能系統的整體格局。
04
首篇論文背后的團隊陣容
這是小米具身智能團隊發布的首篇論文,由小米智駕團隊的郝孝帥擔任第一作者,項目負責人則是小米智駕團隊首席科學家陳龍。
![]()
郝孝帥今年 8 月加入小米智駕團隊。博士畢業于中國科學院大學信息工程研究所,現任小米汽車自動駕駛與具身智能算法專家,研究方向為自動駕駛感知和具身智能基座大模型。
在博士期間,他曾在亞馬遜實習,師從李沐老師。在北京人工智能研究院擔任研究員期間,深度參與了 Robobrain 1.0 和 Robobrain 2.0 等重大項目。結合github等公開信息,自從今年8月加入小米以來,MiMo-Embodied是郝孝帥首次以第一核心成員身份做出的重要貢獻,也是首個自動駕駛與具身智能統一基座大模型 。
除此之外,郝孝帥還曾在 Information Fusion、NeurIPS、ICLR、CVPR、ECCV、AAAI、ICRA 等頂級會議與期刊上發表論文五十余篇,并在 CVPR、ICCV 等國際競賽中取得了多次前三的成績,科研背景十分扎實。
![]()
項目負責人陳龍博士同樣在今年加入小米,擔任小米汽車 Principal Scientist,自動駕駛與機器人部 VLA 負責人,他曾任職于端到端自動駕駛獨角獸公司 Wayve,擔任 Staff Scientist,帶領團隊成功研發并部署了全球首個上車的視覺語言自動駕駛系統 Lingo,被 Fortune,Financial Times,MIT Technology Review 等國際媒體報導。
此前在 Lyft 自動駕駛部門負責基于眾包數據的深度學習規劃模型研發工作陳龍博士憑借在輔助駕駛領域引入視覺-語言-行為(VLA)模型的卓越工作,成功入選《麻省理工科技評論》2025 年度亞太區“ 35 歲以下科技創新 35 人”。
![]()
加入小米后,陳龍開始帶領VLA 團隊推進端到端自動駕駛大模型的技術路線,進一步提升模型在復雜交通場景中的泛化、推理和解釋能力。他與葉航軍、陳光、王乃巖共同構成小米智駕團隊的核心技術力量,組成了當前小米智駕體系的關鍵架構班底。
![]()
作者主頁:
https://haoxiaoshuai.github.io/homepage/
https://www.linkedin.com/in/long-chen-in/
論文鏈接:
https://arxiv.org/abs/2511.16518
未經「AI科技評論」授權,嚴禁以任何方式在網頁、論壇、社區進行轉載!
公眾號轉載請先在「AI科技評論」后臺留言取得授權,轉載時需標注來源并插入本公眾號名片。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.