田晏林 發(fā)自 凹非寺
量子位 | 公眾號(hào) QbitAI
特斯拉開源硬件專利后,所有人都在等:中國(guó)公司怎么回應(yīng)?
現(xiàn)在答案來(lái)了——跟風(fēng)硬件沒(méi)意思,要開源就找比硬件更值錢的東西。
4月22日,智平方發(fā)布AlphaBrain Platform開源社區(qū)。這是全球首個(gè)一站式、開箱即用的具身智能模型開源社區(qū)。
![]()
注意,這次不是單模型開源,智平方聯(lián)合港科大(廣州)熊輝團(tuán)隊(duì)直接拿出了一套“頂配全家桶”:
- 具身前沿技術(shù)(類腦/世界模型)
- 最全架構(gòu)覆蓋(RL/傳統(tǒng)VLA/類腦)
- 最自由組合能力(跨范式即插即用)
- 最公平評(píng)估標(biāo)準(zhǔn)(統(tǒng)一Benchmark)
- 最廣泛開發(fā)社群(匯聚全球產(chǎn)學(xué)研開源力量)
這些原本只存在于頂尖實(shí)驗(yàn)室的前沿技術(shù),現(xiàn)在全部開放!任你取用!
有開發(fā)者評(píng)價(jià):
以前開源是給你一個(gè)工具,現(xiàn)在開源是直接給你一個(gè)工具箱。
2023年成立的智平方,專注AGI原生的通用智能機(jī)器人,目前公司規(guī)模近300人。
因一年12次融資,該公司被外界稱為全球具身智能領(lǐng)域融資節(jié)奏最快的獨(dú)角獸。摩根士丹利也把它列為具身基礎(chǔ)模型的代表企業(yè)。
此時(shí)拿出這樣一套“工具箱”,智平方有什么考量?
![]()
過(guò)去兩年,具身智能涌現(xiàn)了大量開源模型。但一個(gè)尷尬的現(xiàn)實(shí)是:開源模型很多,真正“好用”的很少。
開發(fā)者還是要面對(duì)各種問(wèn)題:這個(gè)模型怎么跑起來(lái)?那個(gè)模型跟它比誰(shuí)更強(qiáng)?我想做的創(chuàng)新能不能落地到真實(shí)場(chǎng)景?
現(xiàn)在,AlphaBrain Platform選擇開源“讓模型跑起來(lái)、比得清、落得地”的全鏈路能力,方便復(fù)現(xiàn)、方便對(duì)比、方便場(chǎng)景化落地。
信號(hào)已經(jīng)很明確了:中國(guó)具身智能的開源戰(zhàn),正式進(jìn)入頭部玩家卡位階段。
5大技術(shù)亮點(diǎn),有3個(gè)最值得看
前面說(shuō)過(guò)了,這套“頂配全家桶”集齊了業(yè)內(nèi)五大核心技術(shù)。
其中最受關(guān)注的,當(dāng)屬世界模型、類腦模型、RL Token和持續(xù)學(xué)習(xí)算法。
![]()
它們是當(dāng)前具身智能領(lǐng)域最火的技術(shù)路線,各有各的狠活兒。別急,咱們一個(gè)個(gè)來(lái)看。
世界模型:最火的“想象力引擎”
AlphaBrain Platform最硬核的地方,是把世界模型的能力給拉滿了,帶來(lái)了全球首個(gè)可插拔世界模型架構(gòu)(WA)。
亮點(diǎn)有主要有2個(gè):
1、原生集成NVIDIA Cosmos Policy原始權(quán)重。
這可不是掛個(gè)名頭。
開發(fā)者可以直接加載NVIDIA Cosmos Predict2那個(gè)2B參數(shù)的DiT原始預(yù)訓(xùn)練權(quán)重,在latent space里通過(guò)視頻擴(kuò)散模型預(yù)測(cè)機(jī)器人動(dòng)作。
說(shuō)白了,就是把NVIDIA最核心的那套“動(dòng)作預(yù)測(cè)”能力,原封不動(dòng)地搬了過(guò)來(lái),可訓(xùn)參數(shù)約1,956M,這底子打得夠厚。
2、預(yù)設(shè)三大主流世界模型Backbone,自由切換。
- Meta的V-JEPA 2.1(約18億參數(shù)),視頻聯(lián)合嵌入預(yù)測(cè)架構(gòu);
- NVIDIA自家的Cosmos Predict系列(約21億參數(shù))世界模型;
- 通義萬(wàn)相的Wan 2.2(約50億參數(shù)),是這三款中體量最大的一個(gè),主打大規(guī)模文本-視頻生成。
這陣容拿出來(lái),基本就是把全球頂尖的世界模型一網(wǎng)打盡了。
這三個(gè)Backbone可以在Flow-Matching解碼器中進(jìn)行自由切換。
啥意思?就是一個(gè)動(dòng)作解碼器(約1.1億參數(shù)),喂給這三個(gè)世界模型都能用。
![]()
AI生成
開發(fā)者想對(duì)比不同世界模型在同一個(gè)任務(wù)上的表現(xiàn),一鍵切換就行了。
訓(xùn)練模式切換也做到了極致簡(jiǎn)化。
一條命令,就能通過(guò)統(tǒng)一配置入口切換訓(xùn)練模式,只需要簡(jiǎn)單修改配置文件即可運(yùn)行。
RL Token:強(qiáng)化學(xué)習(xí)+VLA的黃金組合
智平方自創(chuàng)立起,便確定了構(gòu)建物理世界大模型的核心技術(shù)方向,在行業(yè)尚未形成共識(shí)前,率先布局VLA架構(gòu)。這些年對(duì)VLA的研究一直沒(méi)有停下。
在面對(duì)VLA結(jié)合強(qiáng)化學(xué)習(xí)的研究方向時(shí),開發(fā)者往往要面對(duì)兩座大山:動(dòng)輒數(shù)十億參數(shù)帶來(lái)的極低的推理效率的門檻,以及微調(diào)時(shí)極易引發(fā)的“災(zāi)難性遺忘”難題。
RL Token則是打破這一僵局的“黃金組合”,也是讓大模型真正可落地的場(chǎng)景化利器。
智平方率先在LIBERO環(huán)境上完成了該路線的驗(yàn)證,并提出了一套對(duì)開發(fā)者極其友好的開源優(yōu)化方案。
這套方案的核心突破在于:
1、信息瓶頸編碼與VLA主體凍結(jié)
為了解決算力開銷和遺忘問(wèn)題,方案引入了信息瓶頸編碼器與兩階段訓(xùn)練策略。
在RL微調(diào)階段,龐大的VLA主體參數(shù)被完全凍結(jié)。這不僅守住了模型原有的通用能力底線(避免災(zāi)難性遺忘),更讓訓(xùn)練的計(jì)算成本實(shí)現(xiàn)了斷崖式下降。
2、降低RL的訓(xùn)練門檻
通過(guò)架構(gòu)優(yōu)化,系統(tǒng)所需訓(xùn)練的參數(shù)量從原本龐大的3.9B驟降至約137M(僅占VLA總參數(shù)的3.5%)。
更硬核的是,在實(shí)際的強(qiáng)化學(xué)習(xí)梯度更新環(huán)節(jié),僅涉及極輕量的1.3M參數(shù)。
這意味著,開發(fā)者不需要龐大的算力集群,僅需單張普通消費(fèi)級(jí)RTX 4090顯卡,就能跑通VLA的強(qiáng)化學(xué)習(xí)后訓(xùn)練(Post-training)。
3、告別推翻重來(lái),實(shí)現(xiàn)“穩(wěn)定進(jìn)化”
換句話說(shuō),廣大開發(fā)者可以在不破壞模型原有能力的前提下,對(duì)特定任務(wù)進(jìn)行低成本優(yōu)化。
大模型終于可以像人類一樣,在已有的豐富經(jīng)驗(yàn)基礎(chǔ)上不斷精進(jìn),而不是每次遇到新場(chǎng)景都反復(fù)推翻重來(lái)。
這套方案證明了強(qiáng)化學(xué)習(xí)+VLA這對(duì)黃金組合,可以讓每個(gè)行業(yè)、每個(gè)場(chǎng)景都用它來(lái)定制自己的“能干活的AI”。
持續(xù)學(xué)習(xí):數(shù)據(jù)洪流下的“不會(huì)忘”工程
機(jī)器人一旦真實(shí)部署,每天都在產(chǎn)生新場(chǎng)景、新任務(wù)、新技能。
傳統(tǒng)訓(xùn)練模式有個(gè)老大難問(wèn)題——學(xué)新的忘舊的,也就是業(yè)內(nèi)公認(rèn)的“災(zāi)難性遺忘”。
要做通用智能機(jī)器人,持續(xù)學(xué)習(xí)(Continual Learning,CL)是繞不開的底層能力。
AlphaBrain Platform在這一塊做了比較系統(tǒng)的工程化工作:把CL從“單模型上的研究玩具”推向多架構(gòu)可復(fù)現(xiàn)的對(duì)比平臺(tái)。
![]()
技術(shù)亮點(diǎn)主要有3個(gè):
1、多架構(gòu)橫向?qū)Ρ?/strong>
當(dāng)前前沿的VLA架構(gòu)——QwenGR00T、NeuroVLA、LlamaOFT、PaliGemmaOFT——都被納入了同一套CL驗(yàn)證流程。
每個(gè)架構(gòu)上都跑了全參與LoRA兩種訓(xùn)練變體,形成統(tǒng)一基準(zhǔn)下的橫向?qū)Ρ龋皇侵辉谀骋粋€(gè)backbone上秀單點(diǎn)效果。
2、跨架構(gòu)解耦:算法和模型互不侵入
CL算法接口和業(yè)務(wù)模型完全解耦——換backbone成本極低。
想把Experience Replay換成別的CL方法?實(shí)現(xiàn)一個(gè)統(tǒng)一的抽象類,所有架構(gòu)即可自動(dòng)適配。
LoRA的注入、保存、加載合并也抽成獨(dú)立模塊,對(duì)外只暴露少量清晰API。
也就是說(shuō),算法研究者不用啃每個(gè)VLA的實(shí)現(xiàn)細(xì)節(jié),模型開發(fā)者也不用操心CL算法內(nèi)部怎么跑,雙方各司其職,協(xié)作成本降一檔。
3、開箱即用的訓(xùn)練-評(píng)估鏈路
從訓(xùn)練一條命令啟動(dòng),到矩陣評(píng)估、遺忘分析出結(jié)果,整套pipeline有配套的wrapper和文檔。
LoRA路線下的checkpoint體積也顯著小于全參版本,對(duì)顯存和存儲(chǔ)更友好,更多研究者能在自己機(jī)器上復(fù)現(xiàn)和二次改造。
總而言之,以前做“一個(gè)模型連續(xù)學(xué)多個(gè)任務(wù)還不忘”這類實(shí)驗(yàn),光搭環(huán)境就夠折騰一陣。
現(xiàn)在這套工具鏈把門檻降了一檔:實(shí)現(xiàn)了一鍵切換架構(gòu)、可復(fù)現(xiàn)、可對(duì)比、可擴(kuò)展。
類腦模型:VLA的未來(lái)
前面講了“想得遠(yuǎn)”和“學(xué)得快”,但真正讓機(jī)器人像人類一樣“邊干邊學(xué)、越干越聰明”的,還得是類腦計(jì)算。
智平方這次拿出來(lái)的NeuroVLA,是全球首個(gè)支持在公開基準(zhǔn)上驗(yàn)證的類腦具身開源模型。
它不是簡(jiǎn)單貼個(gè)“類腦”標(biāo)簽,而是從底層架構(gòu)上,向生物腦的學(xué)習(xí)機(jī)制邁了一大步。關(guān)鍵的設(shè)計(jì)有4個(gè):
1、脈沖神經(jīng)網(wǎng)絡(luò)(SNN)動(dòng)作頭
傳統(tǒng)AI輸出的是連續(xù)數(shù)值,像開關(guān)一樣,要么0,要么1。NeuroVLA引入了LIF(Leaky Integrate-and-Fire)神經(jīng)元,用脈沖編碼來(lái)輸出。
它在模擬生物神經(jīng)元的“放電”機(jī)制。有刺激才發(fā)脈沖,沒(méi)刺激就歇著,更像人腦的工作方式。
![]()
2、R-STDP訓(xùn)練算法
這名字聽著復(fù)雜,核心就一件事:讓機(jī)器人能從“成敗”中學(xué)習(xí)。
它支持反向傳播+STDP的混合模式,以及純STDP模式。
獎(jiǎng)勵(lì)信號(hào)會(huì)調(diào)制神經(jīng)元的連接強(qiáng)度,做對(duì)了就強(qiáng)化,做錯(cuò)了就弱化。這就是生物大腦里的“用進(jìn)廢退”。
3、在線STDP測(cè)試時(shí)自適應(yīng)
大多數(shù)模型部署后就定型了,遇到新環(huán)境只能認(rèn)栽。
但NeuroVLA不一樣,它在運(yùn)行階段不需要反向傳播,只靠環(huán)境交互產(chǎn)生的自監(jiān)督獎(jiǎng)勵(lì)信號(hào)(比如狀態(tài)預(yù)測(cè)準(zhǔn)不準(zhǔn)、動(dòng)作順不順滑),就能實(shí)時(shí)更新SNN權(quán)重。
關(guān)鍵是,零額外計(jì)算開銷。也就是說(shuō),機(jī)器人一邊干活一邊學(xué)習(xí),還不費(fèi)算力。
![]()
4、GRU-FiLM動(dòng)作精修模塊
SNN輸出之后,還有一個(gè)“精修師”在把關(guān)。
GRU-FiLM模塊會(huì)基于機(jī)器人當(dāng)前的本體狀態(tài)(比如關(guān)節(jié)角度、速度),對(duì)動(dòng)作進(jìn)行條件性修正。粗調(diào)之后再來(lái)個(gè)精調(diào),動(dòng)作精度直接拉滿。
簡(jiǎn)言之,以前的機(jī)器人,出廠啥樣就啥樣,遇到新場(chǎng)景只能傻眼。
NeuroVLA這套方案,讓機(jī)器人擁有了“終身學(xué)習(xí)”的能力,不僅邊干邊學(xué)、越干越順手,學(xué)習(xí)成本還幾乎為零。
這不就是生物大腦最核心的優(yōu)勢(shì)嗎?
這個(gè)“頂配全家桶”,可以用來(lái)做什么?
聊完技術(shù),咱來(lái)說(shuō)一個(gè)更實(shí)際的問(wèn)題:這個(gè)“頂配全家桶”到底能拿來(lái)干啥?
四個(gè)字:拿來(lái)就用。
全球范圍內(nèi),只有兩家創(chuàng)業(yè)公司能把VLA模型做到開源,一家是智平方,另一家是Pi。
但和Pi開源單個(gè)模型不同,智平方這次玩了把大的,把自己家的模型和其他頭部模型開放集成。
![]()
最牛的模型,馬上能用。它開源了自己最先進(jìn)的三個(gè)“全球首個(gè)”模型、不用調(diào)依賴,直接上手。
哪個(gè)模型好,開發(fā)者一測(cè)便知。 統(tǒng)一Benchmark,一鍵評(píng)測(cè)。世界模型A和世界模型B誰(shuí)更強(qiáng)?跑一下就知道了,不用自己搭擂臺(tái)。
而且,它把路直接給開發(fā)者們鋪好了:從數(shù)據(jù)到訓(xùn)練,從架構(gòu)到測(cè)試,場(chǎng)景落地,有一整套工具鏈。
更狠的是,消費(fèi)級(jí)顯卡就能跑,需訓(xùn)練參數(shù)降低到原本的3.5%。
想適配自己的機(jī)器人?低成本強(qiáng)化學(xué)習(xí)后訓(xùn)練微調(diào),快速搞定。
類腦計(jì)算、世界模型、RL+VLA黃金組合——這些原本只存在于頂尖實(shí)驗(yàn)室的前沿技術(shù),現(xiàn)在開源社區(qū)里就能拿到。
最未來(lái)的黑科技,直接擁有。
和Pi一對(duì)比,格局大小立見(jiàn)。
前者讓你“有一個(gè)模型可以用”,但智平方讓你“有多個(gè)模型可以選,而且能復(fù)現(xiàn)、能對(duì)比、能落地”。
當(dāng)技術(shù)門檻被降下來(lái),更多人能參與,行業(yè)共識(shí)也會(huì)更快形成。
![]()
開源這件事,智平方不是第一次干了。
作為全球具身智能大模型的領(lǐng)跑者,智平方自主研發(fā)的AlphaBrain,致力于為通用智能機(jī)器人提供“最強(qiáng)大腦”。
早在2024年6月,智平方就扔出了AlphaBrain的初期版本,這也是該公司首個(gè)開源的VLA模型。
當(dāng)時(shí)有個(gè)數(shù)據(jù)挺有意思:模型規(guī)模只有谷歌同類的1/20,但性能反超了80%。
這波操作直接入選了NeurIPS 2024,連圖靈獎(jiǎng)得主Yann LeCun都公開關(guān)注并引用了。
到了2025年7月,智平方推出了快慢系統(tǒng)深度融合的新一代VLA架構(gòu),這是業(yè)內(nèi)首個(gè)“異構(gòu)輸入+異步頻率”的雙系統(tǒng)VLA模型,性能直接超越國(guó)際標(biāo)桿Pi0達(dá)30%。
![]()
它更以117.7 Hz的超高控制頻率,重新定義了機(jī)器人“又快又聰明”的可能性。
當(dāng)行業(yè)近期開始熱議“世界模型”時(shí),智平方早在2023年下半年便率先提出:世界模型不應(yīng)是VLA的外接模塊,而應(yīng)深度內(nèi)生于模型之中。
基于這一前瞻認(rèn)知,AlphaBrain在2025年11月吸納了新一代架構(gòu)Video2Act的最新成果——實(shí)現(xiàn)“先預(yù)測(cè)、后執(zhí)行”。
![]()
如今,智平方再次引領(lǐng)突破——開源了全球首個(gè)類腦VLA模型(NeuroVLA),并將其融入AlphaBrain。
從AlphaBrain再到今天的AlphaBrain Platform,智平方走了一條“先自己跑通,再開源給所有人”的路。
“最像特斯拉”的中國(guó)機(jī)器人公司
說(shuō)實(shí)話,智平方這次把這么多好東西直接攤在桌上,我屬實(shí)沒(méi)想到。
它為啥敢這么干?到底什么來(lái)頭?
資本和產(chǎn)業(yè)界給智平方貼過(guò)同一個(gè)標(biāo)簽:“最像特斯拉”的中國(guó)機(jī)器人公司。
因?yàn)槎说蕉说乃伎甲钤缬勺詣?dòng)駕駛行業(yè)提出,特斯拉是最早走端到端大模型技術(shù)路線的企業(yè)。
智平方則是人形機(jī)器人賽道,首家引入該理念的公司。
創(chuàng)業(yè)之初,智平方就是奔著“物理世界大模型”去的,明確堅(jiān)持VLA技術(shù)路線,是行業(yè)中最早推動(dòng)具身大模型從概念走向落地的團(tuán)隊(duì)。
AlphaBrain采用原創(chuàng)模型架構(gòu),擁有完整的數(shù)據(jù)-訓(xùn)練-迭代閉環(huán)體系,而非套用開源方案。
![]()
該公司創(chuàng)始人兼CEO郭彥東,本碩就讀于北京郵電大學(xué),后赴美就讀普渡大學(xué)電氣與計(jì)算機(jī)工程博士,師從AI領(lǐng)域的美國(guó)工程院院士Jan P. Allebach和Charles A. Bouman。
他還曾在微軟美國(guó)研究院參與過(guò)深度學(xué)習(xí)技術(shù)研發(fā)。
回國(guó)后,郭彥東擔(dān)任過(guò)小鵬汽車和OPPO的首席科學(xué)家與研發(fā)高管,曾主導(dǎo)數(shù)億臺(tái)智能終端的AI研發(fā)工作。
2021年,郭彥東獲得中國(guó)圖像與圖形學(xué)會(huì)技術(shù)發(fā)明一等獎(jiǎng),并在國(guó)際頂級(jí)期刊上發(fā)表了100余篇論文(被引用超萬(wàn)次)。
2025年,他被任命為香港科技大學(xué)(廣州)兼職教授,還入選當(dāng)年福布斯中國(guó)科創(chuàng)人物。
同一年,他的團(tuán)隊(duì)有數(shù)十篇論文被頂級(jí)會(huì)議收錄,僅NeurIPS就達(dá)6篇,在世界模型、多模態(tài)理解與VLA方向持續(xù)獲得國(guó)際認(rèn)可。
智平方不只有郭彥東坐鎮(zhèn),還擁有最高密度的科學(xué)家團(tuán)隊(duì),其中有5位斯坦福全球前2%科學(xué)家。
來(lái)自微軟、谷歌、OPPO、小鵬、Momenta,以及清華、北大、中科院、CMU、伯克利的成員也不少。
智平方最不一樣的地方在于,它是行業(yè)稀缺的生產(chǎn)力型通用智能機(jī)器人玩家。不搞表演、不堆demo,專攻真正能干活、能交付的機(jī)器人。
![]()
AI公司容易犯一個(gè)毛病:模型很牛,但落不了地。
智平方的創(chuàng)始團(tuán)隊(duì)脫胎于手機(jī)和汽車產(chǎn)業(yè),對(duì)“端側(cè)智能”和“規(guī)模化量產(chǎn)”的理解幾乎是刻在骨子里的。
他們太清楚什么叫“要在真實(shí)產(chǎn)線上扛住壓力”。
他們打造的輪式通用智能機(jī)器人AlphaBot(愛(ài)寶),由AlphaBrain大模型驅(qū)動(dòng),2025年開始在工業(yè)場(chǎng)景規(guī)模化應(yīng)用。
所以你會(huì)看到這樣的數(shù)據(jù):
- 2025年9月自建產(chǎn)線啟用;
- 同月,與全球前三的液晶面板廠商惠科簽了5個(gè)億的大單。這也是全球生產(chǎn)力型機(jī)器人最大的單一訂單;
- 2025年12月,單月百臺(tái)級(jí)AlphaBot 2真實(shí)交付;
- 2026年產(chǎn)線規(guī)劃擴(kuò)至萬(wàn)臺(tái)規(guī)模。
直接把“演示型機(jī)器人”和“生產(chǎn)力型機(jī)器人”劃清了界限。
作為工業(yè)場(chǎng)景之外的第二增量曲線,2025年底,其推出的全球首個(gè)模塊化具身智能服務(wù)空間“智魔方”,已在北京、深圳、上海、貴州、福建等多地常態(tài)化運(yùn)營(yíng)。
![]()
最后說(shuō)兩句,智平方之所以敢和以前所有開源都不一樣,是因?yàn)樗幌胫恍慵∪猓胱鰳?biāo)準(zhǔn)的制定者。
中國(guó)具身智能的開源競(jìng)賽,已經(jīng)進(jìn)入頭部玩家的卡位階段。
智平方這一拳,打得很重。
開源社區(qū)鏈接:
https://www.alphabrain-platform.com/
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.