如果科技圈有春晚,那一定是CES。
![]()
從當年的CD機、等離子電視,到后來的智能手機、VR眼鏡,再到這兩年的AI硬件,CES幾乎定義了過去半個世紀消費電子的演進節奏。想知道今年什么技術會火?來CES看一眼就知道了。
![]()
這也是CES被科技圈定位風向標的原因。
今年的規模依然炸裂:23萬平方米展區,4500多家展商、14萬觀眾、當然,還有近千家的中國企業。
今年CES的主題是“Smarter AI for All”,雖然是讓AI賦能到所有產品上,但從實際應用來看,沒有什么比機器人更適合。為此,CES還專門開辟了具身智能的專屬展廳,把原本散落在各個角落的機器人公司聚到了一起——這在CES歷史上還是頭一回。
![]()
處在CES現場的我,也是狠狠的被震撼了一波,比如波士頓動力新發布的Atlas,不僅身體更加靈活,還有容易讓人恐怖谷的360°轉身,像國內的宇樹,智元,傅里葉也都成為了現場圍觀對象。
![]()
除了機器人的“體操表演”,現場另外一家來自中國的機器人公司,也引起了包括我在內不少人的關注。
CES上,這家中國公司讓機器人打包送外賣
這家叫做RoboSense速騰聚創的中國公司,在現場用機器人扮演起了“外賣小哥”。
![]()
整個演示分為兩部分,先是拆包取貨,在這個流程中,機器人先把身后的盒子平穩的放到指定位置,然后打開上面的蓋子,把里面的禮品取出來放好。最后,它還知道把空盒子折疊壓平,發回到收納地方,以供二次利用。
![]()
然后是打包上架,機器人拿起空盒子,放到指定位置,抓起旁邊的禮品袋放進去,然后合上蓋子。最后放回到指定地點。
![]()
是不是看上去“平平無奇”,但要知道,這是它——機器人完全自主操作的。沒有人在后面遙控操作,也不是固定場景的應試考試。
我在現場看了好幾輪,從打包、上架、運送、拆包到回收,機器人一次做了將近20個連貫動作,一氣呵成,全程沒有人工介入。展期前兩天實現累計10小時近2000次步驟動作的零失誤自主操作。
根據現場人員介紹,機器人的所有動作都不是預設。要知道,CES展館對機器人來說是個全新環境,嘈雜、擁擠、充滿不可預測的變量。這種場景泛化能力,實在讓人對它的應用場景充滿想象。
![]()
要知道,在之前許多自主控制案例中,都是先需要通過遙操,讓機器人熟悉環境,甚至不少的演示Demo中,背后都有著一個戴著VR眼鏡的操作員。比如說,之前馬斯克在CyberCab發布會上的機器人調酒,就是遙操實現的。
![]()
相比之下,RoboSense的這個演示,可以說是這次CES上最強AI機器人Demo之一了。畢竟,我們想要的是自主行動的機器人,而不是人類的遠程替身。
演示Demo的另一個值得說的是靈巧手。在機器人業內,流傳一句話——大腦決定機器人能做什么,靈巧手決定機器人能做到什么程度。
這次演示里,機器人要完成打包、拆箱、折疊這些動作,每一步都需要精準的力度控制——盒子捏太緊會變形,太松又會掉;折疊的時候力度不對,紙板要么折不動,要么直接壓壞。
![]()
RoboSense速騰聚創的靈巧手上布滿了力觸覺傳感點陣,能實時感知接觸力度的變化。更重要的是,這些觸覺信號會反饋給自研的大模型,大模型再根據觸覺反饋來決定靈巧手的力度。并且,觸覺反饋還可以幫助機器人解決視覺盲區的問題——有些時候手擋住了攝像頭的視線,光靠"看"是不夠的,得靠"摸"來補位。
![]()
這次Robosense速騰聚創不僅在CES現場進行了表演,他們還拍了在深圳實際場景下的一鏡到底視頻。

視頻里,一個穿著黃色馬甲的機器人在夜晚獨自完成了一整套外賣配送任務:先是拆開外賣回收箱、取出外賣袋、把空箱子折疊好投進回收口,然后拎著外賣袋走到辦公樓,自己按電梯、坐電梯上樓,最終把東西送到3樓目的地。

與CES展臺相比,深圳街頭的夜晚是真正的實用開放場景——光線暗、路況雜、電梯還得自己按。能在這種條件下跑通全流程,說明這套方案的泛化能力確實過硬。
在機器人領域,誰能攻克靈巧手和大模型,等同于拿下了機器人領域的圣杯。兩個場景看下來,RoboSense已經朝這個方向邁出了實質性的一步。
而這背后,是三項關鍵技術的支撐:一個前面提到過能感知壓力的靈巧手,另外兩個是RoboSense自研的VTLA-3D的操作大模型和一套叫Active Camera的視覺系統。
![]()
VTLA-3D看上去有點抽象,但是和去年智能駕駛中大火的VLA多少有點“異曲同工”。VLA是把攝像頭捕捉的圖像(Vision),以及用戶文字指令作為輸入(Language),機器人根據圖像和文字來執行動作(Action)。
VTLA-3D在此之上,加入了3D激光點云信息和觸覺感知(Touch),多了兩個維度的信息通道,3D點云則解決了普通2D圖像對深度和距離判斷不夠準確的問題,讓機器人對空間的理解從"平面"升級到"立體";觸覺解決了靈巧手“用多大勁”的問題——抓紙盒和抓鐵塊力度肯定不一樣,這在日常高頻的抓取中作用非常大。
![]()
根據官方的介紹,只用200多個小時的訓練數據,就達到了上面大家看到的泛化效果。如何在數據量不夠的情況下,達到可用的效果,這在訓練數據稀少的機器人領域,非常重要。看來RoboSense找到了一條通路。
Active Camera和普通的純視覺Camera不同,它本身有一個帶雙目RGB攝像模組用來接收信息,還有dToF的收發模組,用來生成上面提到過的3D激光點云,剩下有IMU慣性單元。作為有感知解決方案基因的公司,RoboSense能把三種不同感知能力一體化集成,這方面的積累確實是它的優勢所在。
![]()
不止是硬件和大模型,從這次CES展出的內容來看。RoboSense在背后其實搭建了一整套具身智能技術體系,從底層AI平臺,數據采集系統,核心部件到頂端的模態控制,高效推理,基本上實現了具身智能的全棧自研。
通過交流,目前RoboSense速騰聚創已經可以為行業提供成套的解決方案,幫助各行業快速搭建具有高度泛化和可用的具身智能。無論是物流配送,工業制造還是服務業,都可以實現快速接入,不用從零開始造輪子。
具身智能正在深入行業
具身智能的發展正在邁入一個充滿活力的新階段。從技術演示走向實際應用,機器人行業已經穩健踏入了商業化落地的新征程。
如果說2025年行業重點關注的是運動能力的突破,看機器人如何更靈活的行走,奔跑,甚至完成高難度動作。那么2026年CES所展示的趨勢表明,產業焦點已明確轉向更高階的操作能力與環境交互能力,逐步實現從“會動”到“能干實事”的質變。
例如RoboSense速騰聚創展示的“手眼協同”方案,這個能體現出行業對完整任務閉環的重視。該方案通過感知,決策到執行的系統性支持,可以說將機器人技術轉化為了實際的生產力。
這種從“炫技”到“干活”的轉變,是產業走向穩健發展的積極信號。機器人不僅助力工業制造降本增效,也在醫療、養老、物流等多元場景中持續創造價值。政策支持、資本投入與技術突破正形成強大合力,推動機器人從實驗室和展臺,真正走進工廠、商圈與家庭。
雖然我們離完全類人,什么活都能干的通用機器人還比較遙遠,但在特定場景中輔助人類、實現勞動能力復制與擴展的技術已越來越近。以RoboSense速騰聚創的演示為例,最后100米的機器人送貨若能與無人配送車、無人倉等系統結合,有望顯著提升物流效率,這對于生產制造和消費服務行業的影響是非常深遠的。
對于那些受數據、算力等因素限制的工業操作與商業服務場景,聚焦具體需求、“精耕細作”的解決方案也展現出可行路徑。隨著各領域操作能力持續提升,一些前沿的機器人服務體驗,預計將很快出現在我們身邊。
在不斷攀登技術高峰的同時,深耕場景、務實落地,才能在即將到來的機器人時代占據先機。我們正站在人機共生社會的門檻上,對未來充滿信心。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.