<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      對話它石陳亦倫:不做VLA 不仿真,一家具身智能公司的非主流判斷

      0
      分享至



      不做 VLA;不做遙操,以可穿戴設備采真實數據。

      文丨程曼祺

      編輯丨宋瑋

      2024 年 11 月,《晚點 LatePost》曾獨家報道,華為車 BU 前首席科學家陳亦倫投身具身智能創業。

      不久后,它石智航浮出水面——由陳亦倫和百度前自動駕駛事業群負責人李震宇等聯合創立;成立不足半年,它石先后完成 1.2 億美元和 1.22 億美元的天使輪與天使 + 輪融資,創下中國具身智能領域天使輪融資紀錄,投資方包括藍馳、美團、啟明、線性、高瓴、聯想創投等。

      陳亦倫獲得了很多支持,在技術思考上卻 “離經叛道”。用一種平實的口吻,陳亦倫分享了很多反主流的判斷。

      Google RT-2 開啟的 VLA(視覺-語言-動作)模型,是當前具身模型的主流架構。而它石則開發了 AWE(AI World Engine):

      我們追求表達時間、空間、力和環境交互等物理量和 “世界信息”,而不是 VLA 那樣的 “視網膜信息”。

      VLA 的主流做法是從 LLM(大語言模型)得到 VLM(視覺-語言模型),再在 VLM 基礎上訓 VLA。陳亦倫卻說:

      我非常不認同(這個路線)。具身一定會有自己的獨立模型,而不是在 VLM 上長出一個動作的 “頭”。否則,它也不會是一個獨立的行業,只是 LLM 的下游分支。

      數據是具身智能當前的核心卡點。陳亦倫在創業之初也沒有做當時 Optimus、PI 等美國公司選擇的遙操作數據采集。他認為那樣無法低成本、大規模獲得足夠的數據。它石自研了采集數據的可穿戴設備,讓勞動者可以戴著手套和第一視角攝像頭干活,力求獲得真實場景里真實任務的數據。

      敢和其他人不一樣,可能來自他最早嘗試自動駕駛端到端的切身經驗。曾有業內人士告訴我們,在華為期間曝光度不高的陳亦倫是華為智能駕駛研發團隊的技術 “靈魂人物”。

      這也帶來疑問:智駕的技術的演進過程,會在具身智能上押韻嗎?二者都屬于物理 AI 范疇,但大語言模型的帶來了全新的技術環境。

      這個問題沒有現成回答,取決于不同從業者的不同 bet(押注)。陳亦倫講述了他的 bet。

      從華為、清華到創立它石,端到端開啟通用機器人機會

      晚點:你在大疆和華為做過無人機與無人車,這都屬于機器人的分支,最早關注機器人是什么時候?

      陳亦倫:上學時就開始了。我是物理競賽保送清華的,但讀的是電子系。后來去美國讀機器學習博士時,我也很羨慕做機械專業的室友,因為他們做的東西能動,我天生喜歡 “能動” 的東西。

      2007 年在美國,我看到波士頓動力用液壓驅動的機械狗,它在冰面上摔倒后依然能保持平衡,非常震撼。博士畢業后,我沒有選擇 AI 領域最主流的路徑去一個互聯網大公司,而是去了一家非常有名的機電系統公司,在那里學會了如何做電機、伺服控制和液壓系統——因為當時我認為機器人應該是液壓驅動的,我在第一家公司也帶過液壓伺服控制產品線。

      所以我的職業生涯一直有一個信念:總有一天我要做出理想中的機器人。但作為學算法出身的人,我過去認為技術還沒 Ready,只能寫出一些簡單的程序,那不是我想要的機器人。

      晚點:何時發現技術條件更成熟了?

      陳亦倫:2020-2021 年,我在華為第一次嘗試端到端系統時。那時我已經在華為帶團隊做了 2、3 年研發,我們的自動駕駛系統至少有 200 萬行代碼。它雖然能工作,可以處理復雜的城市道路情況,但維護成本極高。

      2020 年,我和丁文超博士(注:它石首席科學家,曾被華為 “天才少年” 計劃招募入自動駕駛部)等同事想試一下:能不能訓練一個神經網絡,把這 200 萬行代碼精簡掉?最終我們用 3 萬行代碼訓練了一個網絡,直接讓網絡去規劃無人車的軌跡。那就是最早的端到端自動駕駛,只不過當時我們做的是 “兩段式”(注:感知環節是一個端到端網絡,規控環節是另一個端到端網絡)。

      晚點:2020 年開始做端到端,是受到特斯拉 AI Day 等行業信號的啟發嗎?

      陳亦倫:沒有,2020 年的特斯拉 AI Day 還沒講端到端,講的是在感知環節如何恢復 3D 環境(Vector Space),即 BEV(Bird's-Eye-View,鳥瞰視角)。對我們來說,感知是已知解,它是開放問題,有數據、有標注就能做。

      我最頭疼的是規控,這是一個閉環 AI:你產生的每一個動作都會影響下一刻的環境。比如你選擇 “加塞”,對方可能讓行,也可能加速搶行。這種閉環 AI 怎么訓練?當時沒人有把握,但靠傳統規則方法一個個描述 corner case(極端情況),代碼已經堆到了 200 萬行,發現問題的速度已遠超解決問題的速度。所以必須用新的方法。

      晚點:具體怎么探索端到端的?

      陳亦倫:我們需要大規模采集人類駕駛數據,這在之前還沒人做過。我們當時調撥了約 100 輛車的車隊,專門干這一件事。丁博(丁文超)每天在現場教司機開車,定義什么是 “好司機” 的行為。

      起初沒看到顯著進展,但當數據積累到幾千小時后,你會發現網絡真的學到了東西,而且越來越厲害。我們選了一個極難的測試場景——一個人車混行、完全非結構化的城中村,通過規則算法幾乎無法通過。我們大膽用神經網絡去試,原則是 “后處理越少越好”。結果車非常流暢地穿行了過去。那一刻就是我的 “GPT Moment”,我意識到 AI 可以做 Planning(規劃)了。

      晚點:為什么這之后不久,你就離開華為,加入了清華大學智能產業研究院(清華 AIR)?當時智能駕駛正處于上量和質變的前夕。

      陳亦倫:因為我一直就想做機器人,而端到端的成功讓我看到了機器人加速發展的時間點就要到了,但那時我還不知道具體怎么做,所以我選擇先回到學校,給自己一些研究的時間。

      通用機器人的三道曙光和三道墻

      晚點:從加入清華到 2024 年底開始籌備它石,通用機器人的哪些變化讓你覺得創業時機到了?

      陳亦倫:我看到了三道曙光。一是 Locomotion(運動控制)的解鎖:2020 年左右,ETH(蘇黎世聯邦理工學院)走通了一條路:用強化學習(RL)來解決機器狗的控制問題,而以前用的是非常復雜的 WBC(Whole-Body Control,全身控制),機器狗動作很呆板。

      這其中又有兩個核心模塊:一是高并發的仿真器(Simulator),仿真的計算基礎從 CPU 到 GPU 的轉變大幅增加了并發能力,能獲得很多數據;二是縮小 “Sim-to-Real Gap”,即數字世界到到真實世界的差距。像宇樹這樣的硬件和運控做得很好的公司,核心能力就是用各種方法縮小這個 gap,所以現在我們能看到機器人流暢地運動、跳舞。

      第二道曙光是以 GPT 為代表的大語言模型,它提供了機器人領域以前最難的任務規劃能力。自動駕駛的任務規劃相對簡單,就是從 A 到 B,而且有地圖這種現成的導航數據;但機器人任務復雜得多,而且進家、進工廠都缺乏數據,而 GPT 則非常擅長任務規劃。

      三就是我自己驗證過的端到端。本質上,所有機器人任務的邏輯都是輸入傳感器信息和指令、輸出動作。但傳感器數據極高維,指令又極低維,過去堆疊二者的方式就是靠寫規則。規則要窮盡自動駕駛的 corner case 已經很難了,在機器人上更是不可能,所以端到端能奏效這個認知非常重要。

      晚點:自動駕駛和具身智能等物理 AI 領域有幾個經常一起出現的概念:端到端、VLA、世界模型,你怎么理解和區分它們?

      陳亦倫:端到端的本質是盡量用神經網絡解決所有問題,至于底層是模仿學習還是強化學習,都是可選的方法。

      VLA(Vision-Language-Action 視覺語言動作模型) 則是一種神經網絡,它輸入視覺和語言信息、輸出機器人的動作。至于中間是怎么訓的,現在也有不同理解。

      世界模型的定義就更多了,但從信息論角度講很簡單,就是輸入此時的狀態,生成下一個狀態。這個狀態可以用 3D 信息、視頻或物理交互的變化來表達,所以現在說起 “世界模型”,有人說的是 3D 生成、有人說的是視頻生成、有人說的是理解物理交互。它的用途也千奇百怪,有的是給元宇宙或游戲做的,有的想給具身和機器人用。

      晚點:雖然你認為一些條件更成熟了,但整個具身的進度遠落后于大語言模型,瓶頸是什么?

      陳亦倫:我認為 AI 要解決一個大型復雜問題,需要跨越三道墻。

      第一道是數據墻。只有足夠的數據量才能支撐足夠復雜的網絡。大語言模型在這一點上是被祝福的,因為互聯網上已經有海量語料,而要獲得具身智能所需的數據則很難、很貴。

      第二道是算力墻。為什么不是算法呢?因為越復雜的系統,往往算法結構越簡單,這才能經受住海量數據。所以進入預訓練 scaling(規模化)階段后,差異不在算法,而是算力比拼。

      接下來,當擴大算力帶來的邊際效應遞減或算力本身不夠用之后,就會遇到第三道墻,進入后訓練。這時不能再靠堆資源,而是要針對具體問題找到精妙的解法,這會是一個很有創造力的階段。

      現在,大語言模型和自動駕駛都已經過了第二階段,而具身智能還在第一道墻下,就是數據。具身智能目前的核心痛點就是如何低成本、大規模地獲得高質量數據。一旦數據問題解決,行業會收到一波巨大的紅利,智能能力會突飛猛進。

      重劍無鋒、大巧不工,越復雜的任務、越海量的數據,算法結構反而要越簡單

      晚點:聽起來你并不擔心具身智能的算法和模型該怎么設計?

      陳亦倫:首先,缺乏數據時,你對算法是無能為力的。同時,神經網絡的算法和傳統算法也不太一樣。傳統算法要仔細推敲怎么設計,而神經網絡本質是一個函數,最重要的是定義輸入和輸出,其他很多設計不在算法本身,而在算法之外:比如如何最大化利用算力,如何盡可能降低獲取數據的成本。

      晚點:但是我們看大語言模型的發展,互聯網海量數據早就存在,而直到 Transformer 這種模型架構出現,后來又從 BERT 發展到 GPT,整個領域才有大的轉折。(注:BERT 和 GPT 都是 Transformer 架構的大語言模型,BERT 有編碼器和解碼器,GPT 結構更簡單,只有解碼器。)

      陳亦倫:我認為 GPT 最偉大的不是架構本身,而是想出了 next-token-prediction(預測下一個詞)這個訓練任務。

      其實很早時,在 OpenAI 和特斯拉都工作過的 Andrej Karpathy 就寫過一篇著名的技術博客,叫《循環神經網絡(RNN)的驚人效果》(The Unreasonable Effectiveness of Recurrent Neural Networks,發表于 2015 年)。他展示了讓一個不大的 RNN 模型不停預測下一個 character(字符),它竟能寫詩、寫代碼。我那時看到的第一反應就是:能不能把這套邏輯用在自動駕駛上?這種通過簡單任務訓練出復雜能力的想法確實了不起。

      晚點:當時都還沒有 Transformer。(注:Transformer 最早在 2017 年被提出。)

      陳亦倫:對,所以關于模型架構,還是我前面說的——重劍無鋒、大巧不工,越復雜的任務、越海量的數據,網絡結構反而要越簡單、越返璞歸真。

      GPT 就是這樣,在小數據集上沒有明顯優勢,但有了更大的數據后,大家都不約而同地走向了它。

      晚點:如果大語言模型的成功是定義了 “預測下一個 token” 這個目標。那么在具身智能領域,好的訓練目標是什么?

      陳亦倫:這是一個特別好的問題。自動駕駛領域對具身智能有兩個非常棒的啟發:一是 2020 年特斯拉 AI Day 上提出的 BEV(鳥瞰視野),本質就是一層空間重建。現在有很多人通過 VLA 做端到端,但再怎么引入語言,也逃不掉空間重建。

      其實從更本質的角度去想,什么表達是更好的?最經典的物理表達就是最好的。你可以用圖像去理解世界,每個像素都是一個色彩值,這樣從不同角度去看一個物理實體,會有多種組合,但其實它還是同一個實體,它有時空概念,占據了一定的時間、空間;然后當它運動,它有力學的概念,力學會指引它下一刻變成什么狀態。這種物理表達遠比 RGB 要精簡得多,因為它更本質。如果能讓神經網絡學到這些物理的東西,很多任務都會變得非常容易。

      這(空間重建)是 Physical AI(物理 AI)獨有的,跟大語言模型沒關系。

      然后第二類要訓練的目標是和世界的交互。這一點機器人比自動駕駛難,因為自動駕駛是一個不碰撞系統,而機器人是一個接觸物體的系統,它會對操作對象施加力,比如操作布料、線束等柔性物體就很難。

      晚點:所以很多具身智能公司會用疊衣服、團襪子、整理餐巾紙來證明自己的技術實力,你們也展示了刺繡。

      陳亦倫:是的。如果只是把剛性物體,比如金屬零件整齊地抓取、放置,這早解決了。這一代機器人的使命就是要完成上一代技術做不了的任務。



      它石機器人展示刺繡它石 Logo。

      晚點:總結一下,你認為具身的兩個重要訓練目標是空間重建和與世界的交互。那如果真做到了這些,會看到具身領域像大語言模型那樣出現何種智能涌現?

      陳亦倫:涌現的本質是內插。大語言模型看起來聰明,是因為面對一個 prompt,它在海量數據中回溯到了相似的片段并生成了新組合,并不是 “真的懂了”。具身智能現在也一樣,但已能展現驚人的效果。

      晚點:表面的 “涌現” 并不是真的泛化?

      陳亦倫:這套方法論是泛化的。雖然預訓練本身不是讓模型 “真的懂和理解”,但可以通過補充數據增強一個垂直領域的能力。比如大語言模型的一個落地方向是 coding,那就要給它各種代碼的數據。FSD 也是一個例子,它在美國跑得很好,但到了中國、日本等其他地區不能馬上開得很好,但可以通過擴展相對少的本地數據提升表現。

      機器人也是同理,當基座模型的能力越來越強,就可以通過補充特定任務的數據來適應多樣的任務。這個部署時補充的數據量不需要那么大。

      晚點:這套方法也許能實現一些場景的商業應用,但它還是不能像人那樣快速學習新任務。

      陳亦倫:你說的對,現在這套方法還是相對 heavy(重),本質是瘋狂的數據生成器和數據模擬器。而人會主動靠自己的一些先驗判斷高效地找到需要的數據,并吸收和學習。比如 Ilya 最近分享過,人依靠某種機制,可以在開始一個任務之前或做到中途時就想象結果、獲得反饋,這可能通過情緒起作用的,比如我們開始一件事之前,往往就有畏懼或興奮,而機器的強化學習不是這樣,它要遍歷所有可能的解,在完成一個任務后,才能得到 reward。(注:Ilya 是 OpenAI 前首席科學家和 Safe Superintelligence 的創始人,2025 年 11 月,Ilya 接受 Dwarkesh 訪談時提及了這個想法。)

      所以如果真能解決這個問題(像人那樣學習新任務)將是非常非常重大的影響力,讓 AI 學習效率翻很多倍。但在目前階段,大家找到能展現強大效果的東西,依然是這套數據生成和擬合方法。

      已采集 10 萬小時數據,明年數據量會再翻數倍

      晚點:來講講它石是具體怎么做數據和模型的吧。你們發布的 “Human-centric”(以人為中心)數據引擎,是一對輕量化的手套加第一視角攝像機構成的采集設備,讓人戴著它們去工作。為什么想到這種方法?

      陳亦倫:我是把數據問題想明白才創業的。2024 年的第一份 BP(商業計劃書)里就寫了現在的思路,但飽受質疑。因為當時特斯拉 Optimus 和 Physical Intelligence(PI,一家美國具身智能創業公司) 等都在用遙操作——即由人操控機器人采集全量數據。但它又貴又慢,很難達到具身數據的基礎規模。



      它石自研數據采集套件 SenseHub,采集設備由手套(有五指手套和兩指手套兩個版本)、第一視角攝像機組成。

      晚點:具身數據的基礎規模是多少?

      陳亦倫:1000 萬小時或更多。自動駕駛系統要做到持續可用,需要約 100 萬小時的數據;具身智能的復雜度更高,數據量也多一個數量級。

      晚點:仿真或者從視頻數據里學習,是否也能低成本、大規模地獲取數據嗎?這也是一些公司的選擇,如銀河、Hillbot 都側重仿真數據。

      陳亦倫:這都是我們過去踩過的坑。

      先說互聯網視頻數據。做自動駕駛時,我們就扒過很多 Youtube 的行車視頻。但一是,它的量其實沒那么大,二是大量這類視頻是車在正常行駛,并不匹配我們要解決的駕駛問題,不能建立 “指令-動作” 的映射。所以很多這個方向的團隊后來也棄坑了。這在機器人上也是一樣的。

      仿真能把圖像渲染得很逼真,可以解決感知,但對精細操作的用處不大。唯一的例外是 Locomotion(運動控制) 仿真,因為它不需要關心復雜的環境。

      晚點:所以除了數據量,想清楚什么類型的數據有用也很關鍵。

      陳亦倫:對,數據在具身領域是第一性的,后面要做什么算法,也要匹配數據類型。

      總體來說,具身數據有兩種來源:一是從人身上來,一是從世界來。從人身上來,更直接、更快。而能記錄人的行為的數據,本質就是傳感器數據,于是問題就變成了:應該怎么設計傳感器,才能自然、低成本、大規模地拿到人的行為數據?而且這些數據應該是人在真實場景里的真實動作的數據。

      晚點:遙操雖然貴,但它是真機數據,不也是真實場景、真實動作嗎?

      陳亦倫:其實遙操大部分情況下做不到真實場景,因為遙操的機器人現在無法像人那樣靈活的工作,還會干擾別人干活,所以它很難進到真實的工廠、咖啡館或家庭。

      遙操的動作也不夠真實,因為操作員要一會兒做這類任務,一會兒做那類任務,并不能像這些場景的專業勞動者那樣去工作。

      晚點:你怎么看有公司做了大規模的數采工廠,生產大量機器人,然后用遙操來采集數據?

      陳亦倫:當年自動駕駛,也有人花巨資修測試場,模擬各種道路環境,看起來像個小世界。但在這里瘋狂開車訓練出來的神經網絡并不能直接上路。

      具身也一樣:如果一個機器人只在人為設計的環境里運行,它脫離了這個環境就會出問題。

      晚點:你們這套數據采集方法有什么缺陷嗎?

      陳亦倫:我們這套采集方法效率更高、數據更真實、更容易規模化,在架構和功能設計上沒有發現缺陷,但是對于 AI 能力的要求更高。

      晚點:它石現在實際的采集量級和增速如何?

      陳亦倫:非常快。我們從 2025 年 8、9 月開始大規模采集,目前已有約 10 萬小時數據。我們用了很多方法壓縮成本,現在可以開始 scale 了,明年數據量會暴漲很多倍。

      晚點:成本有多低?比遙操能低多少?

      陳亦倫:至少低兩個數量級(即 1/100)。遙操作需要弄一堆昂貴的機器人放在那兒,動作慢、成功率低,還要額外雇操作員花錢采數據。而我們這種方式可以跟場景方合作,讓勞動者戴上手套工作,不干擾生產。我們最大的成本其實在算力上,以及要建立一套把原始數據變成訓練神經網絡所需的數據的 pipeline(數據處理流程)。



      超市工作人員佩戴它石自研數采設備理貨時獲得的數據。

      晚點:通過它石這套可穿戴設備,可以采集到什么維度的數據?

      陳亦倫:就是全信息地刻畫手的動作,包括手在空間中的位姿,即位置和姿態;每個手指的位姿;和動作時施加給對象的力。

      晚點:不需要額外戴傳感器在手臂上采集臂的動作嗎?

      陳亦倫:不需要。我們追求的是盡量讓人無感的被動采集,手套要輕、要無線。

      晚點:位姿是靠同時戴著的第一視角的攝像機來獲取的嗎?

      陳亦倫:不是簡單靠視覺。比如人疊被子時,手是在被子里的,你看不到自己的手在哪兒,但也能完成工作。總之,我們有一系列的設計,這也是為什么我們要自己做硬件。

      晚點:之前市面上沒有現成可用的手套采集設備嗎?

      陳亦倫:機器人領域沒有。其他領域有一些看起來類似的,但都不是為具身智能設計的。比如 VR 操作手柄,主要依靠眼鏡上的攝像頭定位。但這種數據對具身來說質量不夠,它缺少深度信息,也無法在昏暗光源下工作。電影行業的動捕手套則精度不夠。

      晚點:Sunday Robotics 在 2025 年 11 月發布了 skill capture glove(技能捕捉手套),這和你們方法的異同是什么?

      陳亦倫:首先做不做手套,涉及對機器人操作終態的設想。我是靈巧手的堅定擁護者,我認為終態的操作終端一定是靈巧手,所以要給他找一個匹配的傳感器,也就是手套。而且手套非常容易泛化,可以做各種任務、采集多樣的數據。

      這個思路下,現在不同團隊的實現程度不同,因為手套的工業設計很難。我們是做了能采集全量信息的五指手套。Sunday 是做了一個三指手套,這是一個自由度更低的降維版。更簡單的做法是讓人拿著一個夾具去操作任務。

      晚點:有投資人認為,中國雖然具身智能公司很多,但沒什么引領性貢獻,比如 VLA 模型是 Google RT-2 開啟的,用可穿戴手套采集數據的做法也被認為是 Sunday 等美國團隊引領的。

      陳亦倫:大家還是要對中國技術有信心。我有很多在美國從事機器人行業的朋友,他們現在看到中國的進展壓力很大。

      因為具身是硬件、數據和算法間的緊密交織,你想做很好的模型,就得知道要哪些數據、用什么傳感器、怎么采集,將來要用在什么執行器上。中國有強大的工業制造能力,也有這么多 AI 人才和工程師,可以更好整合這些要素,協同優化。在具身智能時代,美國創業者不會是中國創業者的對手。

      具身模型不會是 LLM 上長出來的東西

      晚點:你們的模型叫 AWE,AI World Engine,即 AI 世界引擎,聽起來它不是行業主流選擇的 VLA(視覺-語言-動作)模型。

      陳亦倫:對。AWE 首先追求的是對物理世界的深度表達。我們投入最多的算力去記錄時間、空間、力等物理量或者說 “世界信息”,而不是像 VLM 那樣做 “視網膜式” 的表達。這些世界信息還記錄機器人怎么跟物體交互,比如擠壓一個物體,它會怎么反饋。

      第二是,為什么把它叫引擎?其實也可以說是模型。但引擎是想強調,它是動態演化的,當機器人的 action 改變后,它能預測世界接下來的狀態,并推薦機器人下一步應如何操作。

      晚點:為什么不做更主流的 VLA?

      陳亦倫:創業前我就想過,機器人行業是否值得擁有自己的基礎模型?如果認為機器人模型只是在 VLM 多模態大模型上長出一個解決動作(action)的 “頭”,那機器人就只是其他行業的下游分支,這個行業就不能獨立存在。

      晚點:目前的 VLA 的主流做法,簡單說,就是先用 LLM 得到 VLM(視覺-語言模型),再在 VLM 基礎上做 VLA。

      陳亦倫:對,我非常不認同這么做。目前的多模態模型大多是 “看圖說話” 的問答數據支撐的。僅靠看圖說話,不可能讓機器人知道在世界上如何做事。機器人領域一定會有一套自己的模型。

      晚點:現在很多具身從業者會說,具身智能還沒有找到自己的 “Scaling Law”,首先你怎么看這種評價?以及你覺得它什么時候會來?

      陳亦倫:我覺得具身已經在 scaling 了。大家一般看 scaling 有兩種判斷依據,一是性能是否已經達到某個狀態,二是看增長趨勢。如果看趨勢,毫無疑問現在就是 scaling 狀態,但明顯表現在模型性能能上,還需要時間。

      Scaling Law 之所以啟動比較慢,是因為前面提到的,它要按照順序經歷數據墻、算力墻還有跟環境的交互。在 25 年,具身行業都在認真搞數據,到 27 年甚至 26 年,一定會有效果。

      晚點:到時會有什么早期信號?

      陳亦倫:行業從刷視頻 demo,轉向解決垂直領域的具體問題。整個行業的信心指數會不斷上升。為數不多的團隊可以在一些具體場景上真的做出價值,比如有大客戶的真實采購;行業平均上可以展示出更強的具身智能能力。

      晚點:它石會重點落地的場景是什么?

      陳亦倫:消費級市場還需要時間。第一波我們會進入工業制造,比如線束(Wire Harness)裝配。只要有電的地方就有線,汽車、家電、服務器里全是線。理線、插拔、裝配對傳統機器人來說太難了,因為線束是立體的、柔性的,而這種高技術門檻的領域正是我們的機會。



      晚點:最后一個問題,現在具身領域有這么多公司,如何判斷誰是靠譜的?

      陳亦倫:每個人可能都是靠譜的,關鍵看他有沒有想清楚自己要成為誰。我們很明確自己要做什么,所以我們會按照正確的方式一直跑下去。

      題圖來源:它石

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      歐冠:紐卡3-2勝,托納利喬林頓閃擊建功,總比分9-3晉級

      歐冠:紐卡3-2勝,托納利喬林頓閃擊建功,總比分9-3晉級

      吳紒愛體育
      2026-02-25 06:17:52
      難怪用3選秀簽換祖巴茨!步行者另有所圖,添頭近3戰13+7完美拼圖

      難怪用3選秀簽換祖巴茨!步行者另有所圖,添頭近3戰13+7完美拼圖

      你的籃球頻道
      2026-02-24 14:56:04
      “活下來的是我”:貝加爾湖幸存父親說女兒的手他沒能抓住

      “活下來的是我”:貝加爾湖幸存父親說女兒的手他沒能抓住

      林子說事
      2026-02-25 01:28:59
      墨西哥防長:繳獲販毒集團使用的武器約80%來自美國

      墨西哥防長:繳獲販毒集團使用的武器約80%來自美國

      財聯社
      2026-02-24 00:40:05
      江蘇一家人均1萬6去貝加爾湖看藍冰,為省200塊全家遇難

      江蘇一家人均1萬6去貝加爾湖看藍冰,為省200塊全家遇難

      王曉愛體彩
      2026-02-24 06:13:59
      廣東省2026年獨生子女獎勵:發放標準、所需材料!建議收藏!

      廣東省2026年獨生子女獎勵:發放標準、所需材料!建議收藏!

      虎哥閑聊
      2026-02-24 10:45:21
      日本女子冰壺隊長因酷似孫燕姿在冬奧走紅!社媒低調全是比賽照

      日本女子冰壺隊長因酷似孫燕姿在冬奧走紅!社媒低調全是比賽照

      Emily說個球
      2026-02-22 23:39:17
      光通信、CPO徹底火了!這2只龍頭走出7倍行情!

      光通信、CPO徹底火了!這2只龍頭走出7倍行情!

      證券市場周刊
      2026-02-24 20:20:18
      平山打女孩后續:母親再度發聲,打人者有勢力,女孩現狀令人擔憂

      平山打女孩后續:母親再度發聲,打人者有勢力,女孩現狀令人擔憂

      離離言幾許
      2026-02-24 14:01:15
      死于220年,神化到2026年

      死于220年,神化到2026年

      最愛歷史
      2026-02-23 18:22:55
      浙江一廢棄礦坑因《飛馳人生3》爆火,有人開車幾小時去“挖寶”,當地緊急關閉

      浙江一廢棄礦坑因《飛馳人生3》爆火,有人開車幾小時去“挖寶”,當地緊急關閉

      上觀新聞
      2026-02-25 07:08:08
      一路走好!2026春節剛結束,已有5位名人去世,個個死因令人惋惜

      一路走好!2026春節剛結束,已有5位名人去世,個個死因令人惋惜

      小徐講八卦
      2026-02-25 07:00:47
      為啥浙江人做生意那么厲害?網友:能賺錢的就不可能發出來

      為啥浙江人做生意那么厲害?網友:能賺錢的就不可能發出來

      解讀熱點事件
      2026-02-23 12:38:39
      42歲曲婉婷現狀,面相越來越西方化,住小公寓穿起球毛衣賬號被封

      42歲曲婉婷現狀,面相越來越西方化,住小公寓穿起球毛衣賬號被封

      削桐作琴
      2026-02-23 22:00:18
      河南母親收9.9萬彩禮嫁智殘女兒引爭議,到底是母愛還是甩包袱呢

      河南母親收9.9萬彩禮嫁智殘女兒引爭議,到底是母愛還是甩包袱呢

      牛牛叨史
      2025-11-24 14:50:05
      1991年,張學良去紐約前女友家住了90多天,至死不再聯系

      1991年,張學良去紐約前女友家住了90多天,至死不再聯系

      近史談
      2026-02-24 21:35:57
      新加坡大滿貫賽:8強對陣出爐!國乒獨苗3:0大獲全勝,沖擊冠軍

      新加坡大滿貫賽:8強對陣出爐!國乒獨苗3:0大獲全勝,沖擊冠軍

      國乒二三事
      2026-02-24 09:40:55
      河南19歲男大學生連續一年熬夜,導致嚴重脫發幾乎禿頂:找女朋友都受影響!

      河南19歲男大學生連續一年熬夜,導致嚴重脫發幾乎禿頂:找女朋友都受影響!

      大象新聞
      2026-02-24 16:44:03
      日本玩家170元買NS2、PS5!神級薅羊毛驚呆網友

      日本玩家170元買NS2、PS5!神級薅羊毛驚呆網友

      游民星空
      2026-02-24 22:12:13
      國際乒聯終身主席怒了!樊振東打不打奧運會?應該我們自己說了算

      國際乒聯終身主席怒了!樊振東打不打奧運會?應該我們自己說了算

      夢史
      2026-01-19 14:16:23
      2026-02-25 07:51:00
      晚點LatePost
      晚點LatePost
      晚一點,好一點。商業的真相總是在晚點。《晚點LatePost》官方賬號
      3080文章數 21892關注度
      往期回顧 全部

      財經要聞

      縣城消費「限時繁榮」了十天

      頭條要聞

      北京獨生女被男友打殘:他隱瞞有兒子 想把戶口上我家

      頭條要聞

      北京獨生女被男友打殘:他隱瞞有兒子 想把戶口上我家

      體育要聞

      蘇翊鳴總結米蘭征程:我仍是那個熱愛單板滑雪的少年

      娛樂要聞

      汪小菲官宣三胎出生:承諾會照顧好3個孩子

      科技要聞

      宇樹科技發布四足機器人Unitree As2

      汽車要聞

      入門即滿配 威蘭達AIR版上市 13.78萬元起

      態度原創

      游戲
      本地
      房產
      教育
      公開課

      《怪物獵人物語3:命運雙龍》制作團隊專訪:更RPG一點"/> 主站 商城 論壇 自運營 登錄 注冊 《怪物獵人物語3:命運雙龍》制作團隊專訪:更RPG一...

      本地新聞

      春花齊放2026:《駿馬奔騰迎新歲》

      房產要聞

      330萬人涌入!春節全國樓市,第一個賣爆的區域出現了!

      教育要聞

      弧中點運用第2講,一個視頻學明白!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版