![]()
不做 VLA;不做遙操,以可穿戴設備采真實數據。
文丨程曼祺
編輯丨宋瑋
2024 年 11 月,《晚點 LatePost》曾獨家報道,華為車 BU 前首席科學家陳亦倫投身具身智能創業。
不久后,它石智航浮出水面——由陳亦倫和百度前自動駕駛事業群負責人李震宇等聯合創立;成立不足半年,它石先后完成 1.2 億美元和 1.22 億美元的天使輪與天使 + 輪融資,創下中國具身智能領域天使輪融資紀錄,投資方包括藍馳、美團、啟明、線性、高瓴、聯想創投等。
陳亦倫獲得了很多支持,在技術思考上卻 “離經叛道”。用一種平實的口吻,陳亦倫分享了很多反主流的判斷。
Google RT-2 開啟的 VLA(視覺-語言-動作)模型,是當前具身模型的主流架構。而它石則開發了 AWE(AI World Engine):
我們追求表達時間、空間、力和環境交互等物理量和 “世界信息”,而不是 VLA 那樣的 “視網膜信息”。
VLA 的主流做法是從 LLM(大語言模型)得到 VLM(視覺-語言模型),再在 VLM 基礎上訓 VLA。陳亦倫卻說:
我非常不認同(這個路線)。具身一定會有自己的獨立模型,而不是在 VLM 上長出一個動作的 “頭”。否則,它也不會是一個獨立的行業,只是 LLM 的下游分支。
數據是具身智能當前的核心卡點。陳亦倫在創業之初也沒有做當時 Optimus、PI 等美國公司選擇的遙操作數據采集。他認為那樣無法低成本、大規模獲得足夠的數據。它石自研了采集數據的可穿戴設備,讓勞動者可以戴著手套和第一視角攝像頭干活,力求獲得真實場景里真實任務的數據。
敢和其他人不一樣,可能來自他最早嘗試自動駕駛端到端的切身經驗。曾有業內人士告訴我們,在華為期間曝光度不高的陳亦倫是華為智能駕駛研發團隊的技術 “靈魂人物”。
這也帶來疑問:智駕的技術的演進過程,會在具身智能上押韻嗎?二者都屬于物理 AI 范疇,但大語言模型的帶來了全新的技術環境。
這個問題沒有現成回答,取決于不同從業者的不同 bet(押注)。陳亦倫講述了他的 bet。
從華為、清華到創立它石,端到端開啟通用機器人機會
晚點:你在大疆和華為做過無人機與無人車,這都屬于機器人的分支,最早關注機器人是什么時候?
陳亦倫:上學時就開始了。我是物理競賽保送清華的,但讀的是電子系。后來去美國讀機器學習博士時,我也很羨慕做機械專業的室友,因為他們做的東西能動,我天生喜歡 “能動” 的東西。
2007 年在美國,我看到波士頓動力用液壓驅動的機械狗,它在冰面上摔倒后依然能保持平衡,非常震撼。博士畢業后,我沒有選擇 AI 領域最主流的路徑去一個互聯網大公司,而是去了一家非常有名的機電系統公司,在那里學會了如何做電機、伺服控制和液壓系統——因為當時我認為機器人應該是液壓驅動的,我在第一家公司也帶過液壓伺服控制產品線。
所以我的職業生涯一直有一個信念:總有一天我要做出理想中的機器人。但作為學算法出身的人,我過去認為技術還沒 Ready,只能寫出一些簡單的程序,那不是我想要的機器人。
晚點:何時發現技術條件更成熟了?
陳亦倫:2020-2021 年,我在華為第一次嘗試端到端系統時。那時我已經在華為帶團隊做了 2、3 年研發,我們的自動駕駛系統至少有 200 萬行代碼。它雖然能工作,可以處理復雜的城市道路情況,但維護成本極高。
2020 年,我和丁文超博士(注:它石首席科學家,曾被華為 “天才少年” 計劃招募入自動駕駛部)等同事想試一下:能不能訓練一個神經網絡,把這 200 萬行代碼精簡掉?最終我們用 3 萬行代碼訓練了一個網絡,直接讓網絡去規劃無人車的軌跡。那就是最早的端到端自動駕駛,只不過當時我們做的是 “兩段式”(注:感知環節是一個端到端網絡,規控環節是另一個端到端網絡)。
晚點:2020 年開始做端到端,是受到特斯拉 AI Day 等行業信號的啟發嗎?
陳亦倫:沒有,2020 年的特斯拉 AI Day 還沒講端到端,講的是在感知環節如何恢復 3D 環境(Vector Space),即 BEV(Bird's-Eye-View,鳥瞰視角)。對我們來說,感知是已知解,它是開放問題,有數據、有標注就能做。
我最頭疼的是規控,這是一個閉環 AI:你產生的每一個動作都會影響下一刻的環境。比如你選擇 “加塞”,對方可能讓行,也可能加速搶行。這種閉環 AI 怎么訓練?當時沒人有把握,但靠傳統規則方法一個個描述 corner case(極端情況),代碼已經堆到了 200 萬行,發現問題的速度已遠超解決問題的速度。所以必須用新的方法。
晚點:具體怎么探索端到端的?
陳亦倫:我們需要大規模采集人類駕駛數據,這在之前還沒人做過。我們當時調撥了約 100 輛車的車隊,專門干這一件事。丁博(丁文超)每天在現場教司機開車,定義什么是 “好司機” 的行為。
起初沒看到顯著進展,但當數據積累到幾千小時后,你會發現網絡真的學到了東西,而且越來越厲害。我們選了一個極難的測試場景——一個人車混行、完全非結構化的城中村,通過規則算法幾乎無法通過。我們大膽用神經網絡去試,原則是 “后處理越少越好”。結果車非常流暢地穿行了過去。那一刻就是我的 “GPT Moment”,我意識到 AI 可以做 Planning(規劃)了。
晚點:為什么這之后不久,你就離開華為,加入了清華大學智能產業研究院(清華 AIR)?當時智能駕駛正處于上量和質變的前夕。
陳亦倫:因為我一直就想做機器人,而端到端的成功讓我看到了機器人加速發展的時間點就要到了,但那時我還不知道具體怎么做,所以我選擇先回到學校,給自己一些研究的時間。
通用機器人的三道曙光和三道墻
晚點:從加入清華到 2024 年底開始籌備它石,通用機器人的哪些變化讓你覺得創業時機到了?
陳亦倫:我看到了三道曙光。一是 Locomotion(運動控制)的解鎖:2020 年左右,ETH(蘇黎世聯邦理工學院)走通了一條路:用強化學習(RL)來解決機器狗的控制問題,而以前用的是非常復雜的 WBC(Whole-Body Control,全身控制),機器狗動作很呆板。
這其中又有兩個核心模塊:一是高并發的仿真器(Simulator),仿真的計算基礎從 CPU 到 GPU 的轉變大幅增加了并發能力,能獲得很多數據;二是縮小 “Sim-to-Real Gap”,即數字世界到到真實世界的差距。像宇樹這樣的硬件和運控做得很好的公司,核心能力就是用各種方法縮小這個 gap,所以現在我們能看到機器人流暢地運動、跳舞。
第二道曙光是以 GPT 為代表的大語言模型,它提供了機器人領域以前最難的任務規劃能力。自動駕駛的任務規劃相對簡單,就是從 A 到 B,而且有地圖這種現成的導航數據;但機器人任務復雜得多,而且進家、進工廠都缺乏數據,而 GPT 則非常擅長任務規劃。
三就是我自己驗證過的端到端。本質上,所有機器人任務的邏輯都是輸入傳感器信息和指令、輸出動作。但傳感器數據極高維,指令又極低維,過去堆疊二者的方式就是靠寫規則。規則要窮盡自動駕駛的 corner case 已經很難了,在機器人上更是不可能,所以端到端能奏效這個認知非常重要。
晚點:自動駕駛和具身智能等物理 AI 領域有幾個經常一起出現的概念:端到端、VLA、世界模型,你怎么理解和區分它們?
陳亦倫:端到端的本質是盡量用神經網絡解決所有問題,至于底層是模仿學習還是強化學習,都是可選的方法。
VLA(Vision-Language-Action 視覺語言動作模型) 則是一種神經網絡,它輸入視覺和語言信息、輸出機器人的動作。至于中間是怎么訓的,現在也有不同理解。
世界模型的定義就更多了,但從信息論角度講很簡單,就是輸入此時的狀態,生成下一個狀態。這個狀態可以用 3D 信息、視頻或物理交互的變化來表達,所以現在說起 “世界模型”,有人說的是 3D 生成、有人說的是視頻生成、有人說的是理解物理交互。它的用途也千奇百怪,有的是給元宇宙或游戲做的,有的想給具身和機器人用。
晚點:雖然你認為一些條件更成熟了,但整個具身的進度遠落后于大語言模型,瓶頸是什么?
陳亦倫:我認為 AI 要解決一個大型復雜問題,需要跨越三道墻。
第一道是數據墻。只有足夠的數據量才能支撐足夠復雜的網絡。大語言模型在這一點上是被祝福的,因為互聯網上已經有海量語料,而要獲得具身智能所需的數據則很難、很貴。
第二道是算力墻。為什么不是算法呢?因為越復雜的系統,往往算法結構越簡單,這才能經受住海量數據。所以進入預訓練 scaling(規模化)階段后,差異不在算法,而是算力比拼。
接下來,當擴大算力帶來的邊際效應遞減或算力本身不夠用之后,就會遇到第三道墻,進入后訓練。這時不能再靠堆資源,而是要針對具體問題找到精妙的解法,這會是一個很有創造力的階段。
現在,大語言模型和自動駕駛都已經過了第二階段,而具身智能還在第一道墻下,就是數據。具身智能目前的核心痛點就是如何低成本、大規模地獲得高質量數據。一旦數據問題解決,行業會收到一波巨大的紅利,智能能力會突飛猛進。
重劍無鋒、大巧不工,越復雜的任務、越海量的數據,算法結構反而要越簡單
晚點:聽起來你并不擔心具身智能的算法和模型該怎么設計?
陳亦倫:首先,缺乏數據時,你對算法是無能為力的。同時,神經網絡的算法和傳統算法也不太一樣。傳統算法要仔細推敲怎么設計,而神經網絡本質是一個函數,最重要的是定義輸入和輸出,其他很多設計不在算法本身,而在算法之外:比如如何最大化利用算力,如何盡可能降低獲取數據的成本。
晚點:但是我們看大語言模型的發展,互聯網海量數據早就存在,而直到 Transformer 這種模型架構出現,后來又從 BERT 發展到 GPT,整個領域才有大的轉折。(注:BERT 和 GPT 都是 Transformer 架構的大語言模型,BERT 有編碼器和解碼器,GPT 結構更簡單,只有解碼器。)
陳亦倫:我認為 GPT 最偉大的不是架構本身,而是想出了 next-token-prediction(預測下一個詞)這個訓練任務。
其實很早時,在 OpenAI 和特斯拉都工作過的 Andrej Karpathy 就寫過一篇著名的技術博客,叫《循環神經網絡(RNN)的驚人效果》(The Unreasonable Effectiveness of Recurrent Neural Networks,發表于 2015 年)。他展示了讓一個不大的 RNN 模型不停預測下一個 character(字符),它竟能寫詩、寫代碼。我那時看到的第一反應就是:能不能把這套邏輯用在自動駕駛上?這種通過簡單任務訓練出復雜能力的想法確實了不起。
晚點:當時都還沒有 Transformer。(注:Transformer 最早在 2017 年被提出。)
陳亦倫:對,所以關于模型架構,還是我前面說的——重劍無鋒、大巧不工,越復雜的任務、越海量的數據,網絡結構反而要越簡單、越返璞歸真。
GPT 就是這樣,在小數據集上沒有明顯優勢,但有了更大的數據后,大家都不約而同地走向了它。
晚點:如果大語言模型的成功是定義了 “預測下一個 token” 這個目標。那么在具身智能領域,好的訓練目標是什么?
陳亦倫:這是一個特別好的問題。自動駕駛領域對具身智能有兩個非常棒的啟發:一是 2020 年特斯拉 AI Day 上提出的 BEV(鳥瞰視野),本質就是一層空間重建。現在有很多人通過 VLA 做端到端,但再怎么引入語言,也逃不掉空間重建。
其實從更本質的角度去想,什么表達是更好的?最經典的物理表達就是最好的。你可以用圖像去理解世界,每個像素都是一個色彩值,這樣從不同角度去看一個物理實體,會有多種組合,但其實它還是同一個實體,它有時空概念,占據了一定的時間、空間;然后當它運動,它有力學的概念,力學會指引它下一刻變成什么狀態。這種物理表達遠比 RGB 要精簡得多,因為它更本質。如果能讓神經網絡學到這些物理的東西,很多任務都會變得非常容易。
這(空間重建)是 Physical AI(物理 AI)獨有的,跟大語言模型沒關系。
然后第二類要訓練的目標是和世界的交互。這一點機器人比自動駕駛難,因為自動駕駛是一個不碰撞系統,而機器人是一個接觸物體的系統,它會對操作對象施加力,比如操作布料、線束等柔性物體就很難。
晚點:所以很多具身智能公司會用疊衣服、團襪子、整理餐巾紙來證明自己的技術實力,你們也展示了刺繡。
陳亦倫:是的。如果只是把剛性物體,比如金屬零件整齊地抓取、放置,這早解決了。這一代機器人的使命就是要完成上一代技術做不了的任務。

它石機器人展示刺繡它石 Logo。
晚點:總結一下,你認為具身的兩個重要訓練目標是空間重建和與世界的交互。那如果真做到了這些,會看到具身領域像大語言模型那樣出現何種智能涌現?
陳亦倫:涌現的本質是內插。大語言模型看起來聰明,是因為面對一個 prompt,它在海量數據中回溯到了相似的片段并生成了新組合,并不是 “真的懂了”。具身智能現在也一樣,但已能展現驚人的效果。
晚點:表面的 “涌現” 并不是真的泛化?
陳亦倫:這套方法論是泛化的。雖然預訓練本身不是讓模型 “真的懂和理解”,但可以通過補充數據增強一個垂直領域的能力。比如大語言模型的一個落地方向是 coding,那就要給它各種代碼的數據。FSD 也是一個例子,它在美國跑得很好,但到了中國、日本等其他地區不能馬上開得很好,但可以通過擴展相對少的本地數據提升表現。
機器人也是同理,當基座模型的能力越來越強,就可以通過補充特定任務的數據來適應多樣的任務。這個部署時補充的數據量不需要那么大。
晚點:這套方法也許能實現一些場景的商業應用,但它還是不能像人那樣快速學習新任務。
陳亦倫:你說的對,現在這套方法還是相對 heavy(重),本質是瘋狂的數據生成器和數據模擬器。而人會主動靠自己的一些先驗判斷高效地找到需要的數據,并吸收和學習。比如 Ilya 最近分享過,人依靠某種機制,可以在開始一個任務之前或做到中途時就想象結果、獲得反饋,這可能通過情緒起作用的,比如我們開始一件事之前,往往就有畏懼或興奮,而機器的強化學習不是這樣,它要遍歷所有可能的解,在完成一個任務后,才能得到 reward。(注:Ilya 是 OpenAI 前首席科學家和 Safe Superintelligence 的創始人,2025 年 11 月,Ilya 接受 Dwarkesh 訪談時提及了這個想法。)
所以如果真能解決這個問題(像人那樣學習新任務)將是非常非常重大的影響力,讓 AI 學習效率翻很多倍。但在目前階段,大家找到能展現強大效果的東西,依然是這套數據生成和擬合方法。
已采集 10 萬小時數據,明年數據量會再翻數倍
晚點:來講講它石是具體怎么做數據和模型的吧。你們發布的 “Human-centric”(以人為中心)數據引擎,是一對輕量化的手套加第一視角攝像機構成的采集設備,讓人戴著它們去工作。為什么想到這種方法?
陳亦倫:我是把數據問題想明白才創業的。2024 年的第一份 BP(商業計劃書)里就寫了現在的思路,但飽受質疑。因為當時特斯拉 Optimus 和 Physical Intelligence(PI,一家美國具身智能創業公司) 等都在用遙操作——即由人操控機器人采集全量數據。但它又貴又慢,很難達到具身數據的基礎規模。
![]()
它石自研數據采集套件 SenseHub,采集設備由手套(有五指手套和兩指手套兩個版本)、第一視角攝像機組成。
晚點:具身數據的基礎規模是多少?
陳亦倫:1000 萬小時或更多。自動駕駛系統要做到持續可用,需要約 100 萬小時的數據;具身智能的復雜度更高,數據量也多一個數量級。
晚點:仿真或者從視頻數據里學習,是否也能低成本、大規模地獲取數據嗎?這也是一些公司的選擇,如銀河、Hillbot 都側重仿真數據。
陳亦倫:這都是我們過去踩過的坑。
先說互聯網視頻數據。做自動駕駛時,我們就扒過很多 Youtube 的行車視頻。但一是,它的量其實沒那么大,二是大量這類視頻是車在正常行駛,并不匹配我們要解決的駕駛問題,不能建立 “指令-動作” 的映射。所以很多這個方向的團隊后來也棄坑了。這在機器人上也是一樣的。
仿真能把圖像渲染得很逼真,可以解決感知,但對精細操作的用處不大。唯一的例外是 Locomotion(運動控制) 仿真,因為它不需要關心復雜的環境。
晚點:所以除了數據量,想清楚什么類型的數據有用也很關鍵。
陳亦倫:對,數據在具身領域是第一性的,后面要做什么算法,也要匹配數據類型。
總體來說,具身數據有兩種來源:一是從人身上來,一是從世界來。從人身上來,更直接、更快。而能記錄人的行為的數據,本質就是傳感器數據,于是問題就變成了:應該怎么設計傳感器,才能自然、低成本、大規模地拿到人的行為數據?而且這些數據應該是人在真實場景里的真實動作的數據。
晚點:遙操雖然貴,但它是真機數據,不也是真實場景、真實動作嗎?
陳亦倫:其實遙操大部分情況下做不到真實場景,因為遙操的機器人現在無法像人那樣靈活的工作,還會干擾別人干活,所以它很難進到真實的工廠、咖啡館或家庭。
遙操的動作也不夠真實,因為操作員要一會兒做這類任務,一會兒做那類任務,并不能像這些場景的專業勞動者那樣去工作。
晚點:你怎么看有公司做了大規模的數采工廠,生產大量機器人,然后用遙操來采集數據?
陳亦倫:當年自動駕駛,也有人花巨資修測試場,模擬各種道路環境,看起來像個小世界。但在這里瘋狂開車訓練出來的神經網絡并不能直接上路。
具身也一樣:如果一個機器人只在人為設計的環境里運行,它脫離了這個環境就會出問題。
晚點:你們這套數據采集方法有什么缺陷嗎?
陳亦倫:我們這套采集方法效率更高、數據更真實、更容易規模化,在架構和功能設計上沒有發現缺陷,但是對于 AI 能力的要求更高。
晚點:它石現在實際的采集量級和增速如何?
陳亦倫:非常快。我們從 2025 年 8、9 月開始大規模采集,目前已有約 10 萬小時數據。我們用了很多方法壓縮成本,現在可以開始 scale 了,明年數據量會暴漲很多倍。
晚點:成本有多低?比遙操能低多少?
陳亦倫:至少低兩個數量級(即 1/100)。遙操作需要弄一堆昂貴的機器人放在那兒,動作慢、成功率低,還要額外雇操作員花錢采數據。而我們這種方式可以跟場景方合作,讓勞動者戴上手套工作,不干擾生產。我們最大的成本其實在算力上,以及要建立一套把原始數據變成訓練神經網絡所需的數據的 pipeline(數據處理流程)。
![]()
超市工作人員佩戴它石自研數采設備理貨時獲得的數據。
晚點:通過它石這套可穿戴設備,可以采集到什么維度的數據?
陳亦倫:就是全信息地刻畫手的動作,包括手在空間中的位姿,即位置和姿態;每個手指的位姿;和動作時施加給對象的力。
晚點:不需要額外戴傳感器在手臂上采集臂的動作嗎?
陳亦倫:不需要。我們追求的是盡量讓人無感的被動采集,手套要輕、要無線。
晚點:位姿是靠同時戴著的第一視角的攝像機來獲取的嗎?
陳亦倫:不是簡單靠視覺。比如人疊被子時,手是在被子里的,你看不到自己的手在哪兒,但也能完成工作。總之,我們有一系列的設計,這也是為什么我們要自己做硬件。
晚點:之前市面上沒有現成可用的手套采集設備嗎?
陳亦倫:機器人領域沒有。其他領域有一些看起來類似的,但都不是為具身智能設計的。比如 VR 操作手柄,主要依靠眼鏡上的攝像頭定位。但這種數據對具身來說質量不夠,它缺少深度信息,也無法在昏暗光源下工作。電影行業的動捕手套則精度不夠。
晚點:Sunday Robotics 在 2025 年 11 月發布了 skill capture glove(技能捕捉手套),這和你們方法的異同是什么?
陳亦倫:首先做不做手套,涉及對機器人操作終態的設想。我是靈巧手的堅定擁護者,我認為終態的操作終端一定是靈巧手,所以要給他找一個匹配的傳感器,也就是手套。而且手套非常容易泛化,可以做各種任務、采集多樣的數據。
這個思路下,現在不同團隊的實現程度不同,因為手套的工業設計很難。我們是做了能采集全量信息的五指手套。Sunday 是做了一個三指手套,這是一個自由度更低的降維版。更簡單的做法是讓人拿著一個夾具去操作任務。
晚點:有投資人認為,中國雖然具身智能公司很多,但沒什么引領性貢獻,比如 VLA 模型是 Google RT-2 開啟的,用可穿戴手套采集數據的做法也被認為是 Sunday 等美國團隊引領的。
陳亦倫:大家還是要對中國技術有信心。我有很多在美國從事機器人行業的朋友,他們現在看到中國的進展壓力很大。
因為具身是硬件、數據和算法間的緊密交織,你想做很好的模型,就得知道要哪些數據、用什么傳感器、怎么采集,將來要用在什么執行器上。中國有強大的工業制造能力,也有這么多 AI 人才和工程師,可以更好整合這些要素,協同優化。在具身智能時代,美國創業者不會是中國創業者的對手。
具身模型不會是 LLM 上長出來的東西
晚點:你們的模型叫 AWE,AI World Engine,即 AI 世界引擎,聽起來它不是行業主流選擇的 VLA(視覺-語言-動作)模型。
陳亦倫:對。AWE 首先追求的是對物理世界的深度表達。我們投入最多的算力去記錄時間、空間、力等物理量或者說 “世界信息”,而不是像 VLM 那樣做 “視網膜式” 的表達。這些世界信息還記錄機器人怎么跟物體交互,比如擠壓一個物體,它會怎么反饋。
第二是,為什么把它叫引擎?其實也可以說是模型。但引擎是想強調,它是動態演化的,當機器人的 action 改變后,它能預測世界接下來的狀態,并推薦機器人下一步應如何操作。
晚點:為什么不做更主流的 VLA?
陳亦倫:創業前我就想過,機器人行業是否值得擁有自己的基礎模型?如果認為機器人模型只是在 VLM 多模態大模型上長出一個解決動作(action)的 “頭”,那機器人就只是其他行業的下游分支,這個行業就不能獨立存在。
晚點:目前的 VLA 的主流做法,簡單說,就是先用 LLM 得到 VLM(視覺-語言模型),再在 VLM 基礎上做 VLA。
陳亦倫:對,我非常不認同這么做。目前的多模態模型大多是 “看圖說話” 的問答數據支撐的。僅靠看圖說話,不可能讓機器人知道在世界上如何做事。機器人領域一定會有一套自己的模型。
晚點:現在很多具身從業者會說,具身智能還沒有找到自己的 “Scaling Law”,首先你怎么看這種評價?以及你覺得它什么時候會來?
陳亦倫:我覺得具身已經在 scaling 了。大家一般看 scaling 有兩種判斷依據,一是性能是否已經達到某個狀態,二是看增長趨勢。如果看趨勢,毫無疑問現在就是 scaling 狀態,但明顯表現在模型性能能上,還需要時間。
Scaling Law 之所以啟動比較慢,是因為前面提到的,它要按照順序經歷數據墻、算力墻還有跟環境的交互。在 25 年,具身行業都在認真搞數據,到 27 年甚至 26 年,一定會有效果。
晚點:到時會有什么早期信號?
陳亦倫:行業從刷視頻 demo,轉向解決垂直領域的具體問題。整個行業的信心指數會不斷上升。為數不多的團隊可以在一些具體場景上真的做出價值,比如有大客戶的真實采購;行業平均上可以展示出更強的具身智能能力。
晚點:它石會重點落地的場景是什么?
陳亦倫:消費級市場還需要時間。第一波我們會進入工業制造,比如線束(Wire Harness)裝配。只要有電的地方就有線,汽車、家電、服務器里全是線。理線、插拔、裝配對傳統機器人來說太難了,因為線束是立體的、柔性的,而這種高技術門檻的領域正是我們的機會。
![]()
晚點:最后一個問題,現在具身領域有這么多公司,如何判斷誰是靠譜的?
陳亦倫:每個人可能都是靠譜的,關鍵看他有沒有想清楚自己要成為誰。我們很明確自己要做什么,所以我們會按照正確的方式一直跑下去。
題圖來源:它石
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.