文 | 象先志
幾天前,武漢多輛蘿卜快跑無(wú)人駕駛車(chē)在高架和主干道上集體“熄火”。車(chē)群像被按了暫停鍵,一動(dòng)不動(dòng)地停在路中間,好在沒(méi)有造成人員安全問(wèn)題,車(chē)內(nèi)的乘客也都非常順利地安全下車(chē)。
但鋪天蓋地的罵聲又來(lái)了:“起大早趕晚集”“自動(dòng)駕駛安全不到位”“百度技術(shù)就這?”
講真,單純噴前沿科技這事兒,可能是互聯(lián)網(wǎng)上最安全的生意了。流量賺得盆滿(mǎn)缽滿(mǎn),還有“為消費(fèi)者發(fā)聲”的天然zzzq護(hù)身。
但這次,可能不太一樣。在自動(dòng)駕駛安全的技術(shù)問(wèn)題上,可能錯(cuò)的很少,而真正導(dǎo)致這次“熄火”事件的,很可能是安全策略上設(shè)置的“敏感肌”。
不是能力限制,而是安全選擇
先聊一個(gè)概念,如果L4 級(jí)別自動(dòng)駕駛車(chē)輛出現(xiàn)了故障,那么最好的處理方式應(yīng)該是什么。
其實(shí)需要先確定的一個(gè)點(diǎn)是:為什么要明確 L4 級(jí)別自動(dòng)駕駛這個(gè)關(guān)鍵點(diǎn)。
因?yàn)槌R?guī)的 L3 及 L3 以下的責(zé)任主體,和 L4 級(jí)別自動(dòng)駕駛是存在差異的。
這個(gè)問(wèn)題如果拉到咱們?nèi)粘I钪校船F(xiàn)在已經(jīng)上市且可民用的輔助駕駛車(chē)型屬于L3 以下的智能輔助系統(tǒng)責(zé)任歸屬是,“L3:系統(tǒng)激活時(shí),經(jīng)營(yíng)者 / 制造商擔(dān)責(zé);駕駛員未按規(guī)定接管擔(dān)相應(yīng)責(zé)任。”避開(kāi)所有的技術(shù)細(xì)節(jié),只需要明白一個(gè)問(wèn)題:如果出現(xiàn)交通事故,那么事故的第一責(zé)任人是駕駛員本身。
因?yàn)楝F(xiàn)在廠商們其實(shí)很雞賊,碰到輔助駕駛解決不了的情景就讓車(chē)機(jī)退出,所以發(fā)生事故的時(shí)候的責(zé)任人還是司機(jī)本身。
對(duì)于我們所說(shuō)的真正的“自動(dòng)駕駛”車(chē)輛、也就是駕駛位上可以不用坐人的車(chē)來(lái)說(shuō),按照政策相關(guān)規(guī)定,責(zé)任的劃分非常明確的:歸廠商。
具體的文件叫《智能網(wǎng)聯(lián)汽車(chē)準(zhǔn)入和上路通行試點(diǎn)實(shí)施指南》,有興趣的同學(xué)可以自行查看。
基于這個(gè)責(zé)任劃分,就可以想明白,大規(guī)模自動(dòng)駕駛車(chē)輛是需要保證一個(gè)整體安全性,因?yàn)槿绻?chē)輛出現(xiàn)了類(lèi)似的情況,那么如果發(fā)生車(chē)輛因?yàn)楹罄m(xù)的靠邊停車(chē)或其他操作造成二次事故,后果就會(huì)難以評(píng)估。
廠商只有兩個(gè)層面能解決這樣的事故:云端和車(chē)輛端。
從整個(gè)事件來(lái)推斷,其實(shí)是云端下發(fā)停車(chē)指令,這點(diǎn)應(yīng)該是比較清晰的。
有不少質(zhì)疑聲:為什么不讓車(chē)靠邊停下?這樣不是更安全嗎?
并非如此。
云端下達(dá)指令之后,所有的終端車(chē)輛停車(chē),如果需要靠邊停車(chē),則需要車(chē)端自行并操作靠邊停車(chē)指令。但問(wèn)題是,車(chē)內(nèi)沒(méi)有安全員的情況下,誰(shuí)來(lái)負(fù)責(zé)車(chē)?yán)镉脩?hù)和整體的駕駛安全?
更有人在評(píng)價(jià)這次事故的時(shí)候,說(shuō)是單車(chē)的技術(shù)冗余不夠,沒(méi)法靠邊停車(chē),還是看看蘿卜的單車(chē)能力:
- 4顆禾賽AT128激光雷達(dá)(128線,200米探測(cè))
- 12個(gè)攝像頭 + 6個(gè)毫米波雷達(dá) + 12個(gè)超聲波雷達(dá)
- 1200 TOPS算力(雙Orin X芯片)
這套能力不僅在靠邊停車(chē)上綽綽有余,而且完全有能力支持單車(chē)智能:感知周?chē)h(huán)境、識(shí)別可停車(chē)區(qū)域、自主靠邊。但百度的架構(gòu)設(shè)計(jì),讓這些硬件只用于上傳數(shù)據(jù),最終決策必須回傳云端。
所以緊急停車(chē),恰恰才是這個(gè)時(shí)候最安全的操作。因?yàn)檫@其實(shí)根本不是技術(shù)所限,而是極端狀況下的最后一步。
舊金山也停了,原因一樣
自動(dòng)駕駛集體停擺,并非中國(guó)獨(dú)有。
2025年12月,舊金山大面積停電,Waymo數(shù)百輛無(wú)人車(chē)堵在路口,有的停在路中間,有的卡在十字路口,司機(jī)不得不繞行。Waymo事后解釋?zhuān)很?chē)輛確實(shí)能把熄燈信號(hào)燈當(dāng)作四向停車(chē)來(lái)處理,但出于早期部署的審慎策略,車(chē)輛在執(zhí)行前會(huì)向遠(yuǎn)程團(tuán)隊(duì)發(fā)送“確認(rèn)請(qǐng)求”。停電規(guī)模太大,確認(rèn)請(qǐng)求集中暴增,遠(yuǎn)程系統(tǒng)處理不過(guò)來(lái),車(chē)就卡住了。
![]()
紅綠燈不工作waymo自動(dòng)駕駛車(chē)輛當(dāng)街集體趴窩
熟悉嗎?和蘿卜快跑幾乎是同一個(gè)故事:都是遠(yuǎn)程環(huán)節(jié)成為瓶頸,都是審慎策略在極端情況下變成了系統(tǒng)性癱瘓。
再看另一個(gè)極端。2025年6月至今,特斯拉在奧斯汀的Robotaxi累計(jì)14起碰撞,事故率約為人類(lèi)的4到8倍。特斯拉是純視覺(jué)加端到端神經(jīng)網(wǎng)絡(luò),車(chē)端完全自主決策。出問(wèn)題不是因?yàn)椤安桓覄?dòng)”,而是“太敢開(kāi)”。
三家公司,三種策略,三種代價(jià)。特斯拉放權(quán)給單車(chē),換來(lái)了高事故率;Waymo介于兩者之間,保守確認(rèn)機(jī)制在大規(guī)模異常時(shí)崩潰;蘿卜快跑最極端——云端集控,稍有刺激,整個(gè)系統(tǒng)進(jìn)入“保護(hù)性休克”。
所以結(jié)論其實(shí)非常明確,蘿卜快跑的安全策略是屬于“過(guò)于謹(jǐn)慎”的那一派,也就是所謂的“敏感肌”——出問(wèn)題了,停下解決問(wèn)題。
這樣的表現(xiàn)確實(shí)造成了這樣一個(gè)并不好看的結(jié)果,雖然單車(chē)硬件冗余遠(yuǎn)超Waymo和特斯拉,但決策權(quán)被云端鎖死。就像給士兵配了槍?zhuān)鈾C(jī)由千里之外的指揮官遙控——不是不會(huì)開(kāi)槍?zhuān)遣槐辉试S自己開(kāi)槍。
稍有刺激,整個(gè)系統(tǒng)就進(jìn)入“保護(hù)性休克”。
但好處在于,如果我是坐在后面的乘客,我更希望在這樣的事故出現(xiàn)時(shí),車(chē)確實(shí)能安穩(wěn)停下,讓我趕緊下車(chē),這對(duì)于乘客本人和整體安全,應(yīng)當(dāng)都是最優(yōu)解。
蘿卜犯錯(cuò),為什么不被允許?
有趣的是,自動(dòng)駕駛其實(shí)是 AI 能力在現(xiàn)實(shí)世界最前沿的投影。
當(dāng)大家還在為龍蝦歡呼雀躍,感嘆智能涌現(xiàn)的時(shí)候,是可以容忍大模型笨、大模型出錯(cuò),畢竟這對(duì)個(gè)體來(lái)說(shuō)并沒(méi)有過(guò)多影響。
但自動(dòng)駕駛真正開(kāi)始為人們服務(wù)、改變這個(gè)社會(huì)出行方式的時(shí)候,卻因?yàn)樗麍?zhí)行了最安全的策略,而詬病他很笨。
批評(píng)蘿卜快跑“技術(shù)不行”是容易的、是上頭的,但可能是錯(cuò)的。
當(dāng)蘿卜、小馬、文遠(yuǎn)們站在這個(gè)行業(yè)中最顯眼的位置時(shí),一有風(fēng)吹草動(dòng),人們就會(huì)開(kāi)始“草木皆兵”。而他們選擇的其實(shí)都是最難走的一條路。
自動(dòng)駕駛最難的部分,從來(lái)不是讓車(chē)開(kāi)起來(lái),而是讓車(chē)用最安全的方式停下來(lái)。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶(hù)上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.