![]()
圖片來源:2026中央廣播電視總臺春節聯歡晚會
2026年的央視春晚舞臺,機器人無疑成為了全場的焦點。
松延動力的仿生人形機器人與著名演員蔡明配合演繹小品,宇樹科技的人形機器人“絲滑”演繹中國武術,銀河通用機器人在舞臺上串臺詞、疊衣服,魔法原子八臺機器人隨著音樂節拍,與人類同步舞動。
數據顯示,馬年春晚開播兩小時(2月16日20:00-22:00),京東機器人搜索量環比增長超300%,客服問詢量增長460%,訂單量增長150%。新增訂單覆蓋全國100多座城市,從一線城市到大小縣域均有分布。
“春晚直播結束,主創團隊就像考試結束,接下來就是等待觀眾‘閱卷’。”總臺馬年春晚總導演于蕾表示,今年的春晚機器人“濃度”超高,希望通過節目讓觀眾看到中國機器人產業立體化的狀態。
而在觀眾看熱鬧之余,春晚登臺的四家機器人廠商到底成色幾何呢?
宇樹科技,確有“真功夫”
2026年春晚舞臺上,宇樹科技作為春晚機器人合作伙伴第三次登臺亮相,依舊穩定發揮了當前行業人形機器人運動控制領域的頂尖水準。
《武BOT》節目中,宇樹科技的人形機器人實現了多項全球首次技術突破:實現全球第一次連續花式翻桌跑酷,全球第一次彈射空翻、空翻最大高度超3米;全球第一次單腳連續空翻、兩步蹬墻后空翻,以及全球第一次Airflare大回旋七周半等高難度動作。

圖片來源:2026中央廣播電視總臺春節聯歡晚會
“今年機器人的頭部激光雷達、靈巧手等硬件和軟件做了很多升級。”
宇樹科技創始人王興興表示,此次機器人在快速奔跑中完成了穿插變陣和武術動作,這種高動態、高協同的集群控制技術是全球首次亮相。“這個動作非常實用,為后續機器人在其他場景集群或單臺機器人調度做好了鋪墊。”
據介紹,在集群協同層面,演出使用全新升級的高并發集群控制系統進行協同控制,實現了幾十臺機器人實時協同動作,動作同步誤差嚴格控制,達成超低同步延遲。
此外,宇樹科技通過AI處理本體感知數據,并與3D激光雷達數據深度融合,每秒處理上百次環境信息。這套算法保障機器人在劇烈運動后仍能精準定位,防止在空翻等劇烈動作下,傳統定位算法丟失跑飛的問題。

圖片來源:2026中央廣播電視總臺春節聯歡晚會
定位算法與控制算法的加持,讓機器人能夠快速準確地完成復雜隊形穿插,最終促成了全球首次全自主人形機器人集群武術表演(帶集群快速跑位)。
“未來希望在AI能力的提升情況下,讓人形機器人更多地去從事一些危險性或者體力勞動,去真正提高生產力,提高大家的生活水平。”王興興稱。
小品、舞蹈、夾烤腸,機器人包圓春晚舞臺
宇樹科技之外,諸如銀河通用、松延動力和魔法原子,則分別在賀歲微電影《我最難忘的今宵》、小品《奶奶的最愛》以及《智造未來》歌曲表演中出現。
比如,銀河通用人形機器人Galbot G1展示了收拾桌面碎杯、貨架取物、夾烤腸等一系列貼近生活的實操能力,將智能機器人的應用場景帶入公眾視野。

圖片來源:2026中央廣播電視總臺春節聯歡晚會
“和傳統的舞蹈機器人不同,它不依賴一套提前錄制好的舞蹈動作,也不需要遙控器。銀河通用機器人搭載了我們自研的具身大模型銀河星腦,它能夠讓我們機器人看得懂環境,聽得懂人類的指令,自主干好活。”
銀河通用機器人團隊負責人王鶴表示,Galbot G1高度集成的30多個電機,可以完成22個自由度的抓取動作。這一雙穩定絲滑的手,遠遠超出了現有應用場景對人形機器人能力的需要,大多數場景雙夾和吸盤就夠用了,是春晚讓他們團隊提前解鎖了“高階版”場景任務。
在《智造未來》歌曲表演中,魔法原子的6臺人形機器人,則與易烊千璽、陳小春、言承旭、羅嘉豪同臺完成表演。
小品《奶奶的最愛》中,松延動力四臺雙足人形機器人和一臺仿生人形機器人,首次出現在了春晚語言類節目中。
![]()
圖片來源:2026中央廣播電視總臺春節聯歡晚會
“語言類節目的走位調度極為嚴格,機器人每完成一次動作都要精準地落在固定的點位上,不能有一點震動導致機器位移,否則會影響演員的走位,這對機器人自身運動控制的精度要求非常高。”
松延動力方面表示,為此,研發團隊重新設計了側手翻、后空翻、前空翻、后手翻、后空翻跪地的動作,再讓導演組選出適合節目的后空翻和側手翻。能達到最終的效果,是松延動力人形機器人產品對自身運動精準控制的體現。
熱鬧之后,機器人仍有漫漫長路
四家機器人企業的同臺競技,讓2026年的春晚成為了機器人登場密度最高的一屆,被網友戲稱為“機器人春晚”。
據悉,各家機器人廠商為爭取春晚合作權益,投入不菲。據業內人士透露,報價區間在6000萬元至1億元,相當于部分初創企業全年研發成本。春晚表演推高機器人曝光率的同時,也標志著國產人形機器人從實驗室樣機邁入工程化運行階段。
不過,在春晚的熱鬧之后,邁入新階段的機器人產業,仍有漫漫長路要走,也依然面臨著諸多路線爭議。

圖片來源:2026中央廣播電視總臺春節聯歡晚會
比如,具身智能一直仰仗的VLA技術路線,在實際開發過程中正在面臨越來越多的挑戰。
所謂VLA模型,即視覺-語言-動作模型。它的技術邏輯可以簡單描述為,將人類指令和外界多模態信息(聲音、圖像、視頻)轉化為計算機語言,繼而控制機器人行為。
但在VLA模型的訓練中,互聯網上的靜態、非結構化文本和圖像數據,并不是訓練所需的核心數據。訓練VLA模型需要的具身智能數據,是連續的、動態的、三維甚至四維的時空軌跡流。而物理世界數據的稀缺與復雜性,成為了制約VLA模型能力躍升的主要瓶頸。
金沙江創投的董事長朱嘯虎就認為,當前人形機器人商業化路徑不清晰,批評其演示功能(如翻跟頭)與解決實際問題的“干活”能力脫節,并因此批量退出相關投資項目。
作為iRobot聯合創始人、MIT機器人實驗室前主任的羅德尼·布魯克斯,則是目前最嚴厲的批評者之一。他直言埃隆·馬斯克對于人形機器人的量產和能力預測是“純粹的幻想”。
“行業需要分辨當下的量產是由真實的商業需求驅動,還是僅由政策補貼和投資熱度催生的偽需求。”
智源研究院院長王仲遠還公開表示,如果不是由真實需求形成的量產,而是由示范項目帶來的一次性小需求,持續的量產就很難達成。一旦落地效果達不到預期,采購方會暫停購買,行業可能就會進入低谷。
![]()
圖片來源:2026中央廣播電視總臺春節聯歡晚會
不過,在機器人創業者看來,前路雖有挑戰,但機遇也并存。
“常溫超導體、可控核聚變,可能在物理原理上就是個‘問號’。可能這個宇宙就不允許這種東西存在,人類花再多時間精力也不可能實現。”
王興興此前就對筆者表示,與它們相比,人工智能機器人雖然需要解決的問題很多,但都是有方法的。只要花時間和腦力投入,智能是可以在機器人身上復現的,它并不存在物理意義上的約束。
按照王興興的最新說法,人形機器人想要達到“ChatGPT時刻”?,機器人需要在80%的陌生場景中,聽懂語言或文字指令后,成功完成約80%的任務(如遞水、整理房間)。
他預測,這一里程碑式的突破最快可能在1-2年內實現,最晚也不會超過3-5年。但他也強調,機器人進入普通家庭仍需要一個相對較長的過程,因其涉及倫理道德、安全性等更復雜的問題。(作者 | 科技潛線,文 | 饒翔宇 編輯 | 鐘毅)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.