![]()
智能駕駛大躍進,很大一部分風險,需要讓消費者來承擔,讓車企能做出更好的系統。
一個多月前,我差點遇到車禍。
我開車不算久。以前總覺得地鐵和打車要方便得多,不用保養,不用費神停車,以我的生活習慣,也幾乎不會去不能打車的地方。
直到兩年前因為孩子要出生,才抓緊時間,學車,買車,買車時候兩個考慮,一個是空間要大,再就是最好有智能駕駛,新手上路,需要拐棍。
不知不覺,也開了一萬五千公里,拐棍很少用,不過有時候路況良好,自己又想稍微伸展下的時候,就會習慣撥兩下操作桿,交給智能駕駛,自己歇口氣。
結果這次差點出事。
出事時候我在高速路上,載著一家人從上海回青島。工作日車流不大,高速路也不用做什么復雜決策,筆直往前開就行,所以時不時,我會撥兩下操作桿,開啟 NGP——這是小鵬汽車輔助駕駛的名字。
忽然,車開始變道了。
沒有任何預警。沒有提示音,沒有儀表盤的閃爍,甚至沒有任何前置的猶豫。方向盤以一種我從未體驗過的、決絕的姿態,向右打了一下,車輛隨之向右側車道并去,動作流暢,行云流水。
我第一反應甚至沒想著去阻止,因為它變道的姿態如此自信,我已經懷疑自己時不時開錯了路,而偉大的人工智能正在糾正人類的愚蠢。
等我反應過來,它已經變到了最右側岔路,向著匝道沖過去,沒有減速,也沒有遲疑,一百二十公里每小時,撞向了路旁的護欄,幾乎同時,小鵬退出了 NGP,提示我來接管。
![]()
行車記錄儀截圖
《中國汽車報》曾援引美國國家公路安全管理局和德國全德汽車俱樂部發布的報告稱,72% 的自動駕駛事故發生在系統提示后 2 秒內,而駕駛員平均需要 2.3 秒才能完成有效接管。在高速公路場景,這個數值會延長至 2.6 秒。
只能說,很感謝我是在最左側車道,讓自己有了足夠的反應時間。而如今能寫下這個經歷,自然是我及時接管,踩剎車,調整方向,最終結果一切都好,只是多繞了幾公里的路。
但很自然,我有三個問題:怎么回事?誰要負責?有沒有賠償?
我聯系了小鵬客服,詳細描述了我的經歷,并上傳了行車記錄儀視頻和車輛數據之后,以為自己會得到一個同樣嚴肅和深入的對待。
回復很簡單。
關于原因:初步判斷由于導航路線模型軌跡規劃異常導致。
關于后續:已經記錄反饋產品部門,并將在后續的版本功能迭代過程中進一步優化。
其他建議:多注意觀察路況及車輛行駛狀態,在必要時接管車輛,安全通行。
至于補償:當前公司未有相關流程,但客服可以給我一個小禮物。
最后,「非常抱歉給您帶來了不好的用車體驗,也感謝您的支持和理解」。
很難支持,也很不理解。
「導航路線模型軌跡規劃異常」應該是系統失靈的結果,而不是原因,我想知道,究竟真正的原因是什么。
而且,倘若是車輛質量問題,那么自然應該車企承擔責任。現在客服承認智能駕駛有問題,最終只是說「幸虧我及時接管」,而沒有任何擔責流程,這也沒法理解。
而且,這也不是孤例。我搜索到了七八月份以來,幾起類似的案例,都是在毫無必要的情況下,智能駕駛系統開始變道。多數事件里,車主平安無事,也有一些事故把車撞壞了——無一例外,小鵬都沒有給任何補償。
我想知道答案是什么,我想知道我還能不能信任這輛車,能不能信任自動駕駛。
![]()
我是個外行,問了 AI,查閱了一些論文和技術文檔,也找在車企工作的朋友交流,試圖自己找到原因。
我們可以簡單地把智能駕駛簡化為三個核心層級:輸入層、決策層、執行層。
小鵬在變道時候,果斷,流暢,非常明確將匝道作為自己的目標,所以不應該是執行層的問題,也不太可能是地圖精度的問題,問題應該發生在決策層面。
車輛的輔助駕駛系統之上,還有一個更高層級的「導航大腦」。這個大腦給出的不是「保持車道居中」這種微觀指令,而是「沿 G2 高速繼續行駛 50 公里后,在 A 出口下」這種宏觀任務。而小鵬當時的行為,極像是在執行一個錯誤的宏觀任務。
這個錯誤怎么發生的?聯系到客服所說的導航規劃問題,我大致有一個推測。
可以想象,導航系統下發給輔助駕駛模塊的是一個個數據包,里面包含了路徑規劃的關鍵節點(Waypoints)。在一種極端情況下,你車輛的系統可能接收到了一個被污染或錯誤的數據包,這個數據包里的「當前目標節點」被錯誤地設定在了那個匝道上。
簡單來說,就像是我的 GPS 導航突然發瘋,把目的地改成了路邊的某個點。對于輔助駕駛系統來說,它的任務就是以最高效率執行指令,于是它計算出了一條從最左到最右的最快路徑,并行云流水加以執行。
直到小鵬實際沖入匝道,開始接收匝道上的地圖和定位信息時,它的「導航大腦」才猛然發現:當前位置與最終目標(比如幾十公里外的某個城市)的全局路徑完全對不上了。
這個巨大的邏輯矛盾,最終觸發了系統的降級保護機制,從 NGP 降級到功能更簡單的 LCC,并將控制權交還。
不過,這些推測終究只能是推測,因為即便小鵬的工程師,也很難完全定位問題的原因,因為現在的小鵬智能駕駛,已經開始使用「端到端模型」,這個模型更先進,但卻是更難解釋的黑箱。
如果說先前的智駕系統是讓汽車去背一本厚厚的駕駛規則手冊,那么端到端智能駕駛則是像教一個新手一樣去教系統自己開車。
在端到端出現之前,智能駕駛系統依靠規則來驅動。首先,車輛通過高精地圖,像一個帶著精確導航地圖的人,提前知曉道路的每一個細節,比如車道線的位置、紅綠燈的精確坐標、甚至是路沿的高度。然后,工程師們會為車輛編寫大量的駕駛規則,就像一個詳盡的「如果……就……」(if-then)指令集。
這個方案在早期看起來非常可靠,因為它確定性強,車輛的每一個動作似乎都有據可尋。尤其在高速公路上,路況簡單且標準,也沒有行人和非機動車穿插。
不過,城市是動態變化的,今天修路,明天可能就會出現一個新的隔離樁。高精地圖的制作成本高昂,更新卻總是滯后于現實的變化。
規則的「窮舉」也是一個不可能完成的任務,工程師永遠無法預設所有可能的極端場景(corner case)。一個騎著電動車橫穿馬路的外賣員,一個突然從路邊竄出的小球,這些場景都很難用簡單的「if-then」規則來覆蓋。
工程師們陷入了無盡的打補丁工作,每出現一個新的問題,就增加一條新的規則。這導致代碼變得臃腫、復雜,規則之間甚至會產生沖突,最終使得系統難以維護,更難以泛化到新的城市和路況。
端到端的核心是「數據驅動」(Data-driven)。它不再依賴工程師編寫規則,而是通過深度神經網絡,去學習和模仿海量的人類優秀司機的駕駛數據。系統通過觀看數百萬個駕駛視頻片段,自己領悟在何種場景下應該做出何種反應,最終實現從看到路況到直接操控車輛的能力。
由于是從真實世界的海量數據中學習,而非依賴有限的規則,它面對未知場景時能做出更合理、更擬人的決策,從而大幅提升了智能駕駛的能力上限,具備更好、更快的糾錯能力。
而且,因為端到端擺脫了對高清地圖的依賴,而是能實時處理周圍信息,也讓智能駕駛能夠更快覆蓋更多城市,而無需派出專業的采集車隊,一米一米地掃描城市道路。
在高精地圖階段,小鵬成了智駕開城最多的車企,但正如何小鵬所說,先前的規則寫得越好,公司包袱越重,轉身越難。盡管何小鵬說,自己在 2023 年一季度就意識到需要調整技術路線,但在 2024 年,車企紛紛開始部署「端到端」的解決方案,小鵬反而落后一步。
他們需要快速跟上。
![]()
2024 年 5 月,小鵬發布 AI 天璣系統,意味著全面投入端到端技術;7 月底,小鵬宣布 AI 天璣系統 XOS 5.2.0 版本向全球推送,堅持「每 2 天一次版本迭代,每 2 周一次體驗升級」。
不過,在人工智能領域,「快速迭代」帶來的不一定是更好用的系統。
端到端神經網絡模型有一個固有缺陷:「災難性遺忘」(Catastrophic Forgetting),也就是說,這一模型在學習新東西時候,有可能忘掉先前學會的知識。
舉個例子,比如我們發現,端到端模型在處理復雜的無保護左轉場景時表現不佳,我們就會集中「喂」給它大量這類場景的數據進行專項訓練,以求「補齊短板」。然而,神經網絡在學習新知識時,調整內部參數的方式可能會覆蓋或干擾它已經學到的舊知識。
馬斯克此前就公開解釋過 FSD V12.4.2 版本推遲的原因:正是因為給模型投喂了大量需要接管的復雜場景數據進行訓練后,發現在簡單場景下的駕駛平順性反而倒退了。這就是一次典型的「災難性遺忘」。
快速的迭代,意味著更頻繁地用新數據去「沖擊」現有模型,這無疑也增加了「災難性遺忘」發生的概率。
而且,快速迭代也給驗證和測試帶來了巨大壓力。傳統的模塊化系統,雖然笨重,但它的好處是可解釋性強,便于獨立測試。如果車輛變道有問題,工程師可以大概率定位到是規劃模塊的規則出了問題。
但端到端模型是一個黑箱。當車輛做出一個奇怪的決策時,工程師很難像過去一樣精準定位到是哪一行「代碼」或哪一條「規則」出了問題,因為決策是由數億乃至數十億個參數共同作用的結果。
這就意味著,每一次 OTA 更新前,車企都需要進行海量的仿真測試和道路測試,以確保新版本沒有引入新的、未知的缺陷。迭代速度越快,留給測試和驗證的時間就越短,這無疑會增加漏掉某些 corner case 的風險。
而且,快速迭代未必能讓用戶用得更舒服。
用戶可能會發現,上一個版本中已經習慣的、平順的駕駛風格,在某次「升級」后突然變得激進或保守。這種駕駛策略的不連貫、不統一,會嚴重影響用戶的信任感。用戶需要不斷地重新適應車輛的「脾氣」,這與智能駕駛追求舒適、可靠的初衷是相悖的。
![]()
但企業沒有辦法不去快速迭代。
端到端模型,將智駕行業帶到了強者愈強的循環:
在這個循環中,任何暫時的落后都可能是致命的。一旦競爭對手通過快速迭代,率先實現了體驗上的決定性突破,就會迅速侵蝕市場份額,截斷后來者最寶貴的數據來源。
對于小鵬而言,它曾經的領先優勢正在被理想、華為等對手迅速追平。如果它現在放慢迭代速度去追求所謂的「完美」,那么市場和數據都不會給它留下從容追趕的時間。
而且,如前所說,端到端模型的核心是「數據驅動」,而非「規則驅動」。這個「大腦」不是像真空中的球形雞一樣被設計出來的,而是在真實世界的道路上「喂」出來的。它的每一次進化,都依賴于從用戶車輛上收集到的海量真實數據,尤其是那些系統處理不好的 corner case。
放慢迭代,就意味著放慢了學習和糾錯的速度。和新手司機一樣,一個 AI 司機,只有不斷地去路上犯錯(在安全可控的范圍內)、不斷地從錯誤中學習,才能最終成長為「老司機」。
在傳統汽車行業,一款車幾年才換代一次;但在智能汽車時代,算法可能幾周甚至幾天就要更新一次,因為模型「嗷嗷待哺」,等待著新的數據來解決舊的問題。
在線閉環測試難以獲取長尾和異常駕駛場景的數據。因此,唯一的辦法就是將「尚不完美」的系統推向市場,讓千千萬萬的用戶車輛在行駛中去遭遇問題、收集數據,然后回傳給云端,用于下一輪的模型訓練。這個「影子模式」 的背后,就是讓用戶在無形中參與了系統的測試與迭代。
而且,端到端模型存在「災難性遺忘」和不可解釋性。這意味著,即使工程師在發布前進行了嚴格的測試,也無法 100% 保證系統不會在某個用戶、某條從未跑過的道路上,做出一個匪夷所思的危險決策,比如迅速變道,一頭扎向匝道。
最終,智能駕駛大躍進,很大一部分風險,需要讓消費者來承擔,以讓車企能做出更好的系統。用戶每一次開啟智駕,每一次選擇信任這套系統,都是在用自己的安全為這項技術的成熟和進化投票。
技術的迭代速度以月甚至周為單位,而法律、法規、保險和社會共識的演進速度,則以年為單位。這種「剪刀差」,導致了權責的模糊地帶。
車企也不能去承擔責任,正如同客服給我的回應里,說他們「沒有相關流程」。
因為一旦主動承認某一次事故的責任主體是「系統」而非「駕駛員」,就等于親手打開了一個后果不堪設想的「潘多拉魔盒」。
目前全球的法律框架,都將 L2、L2 + 級別的智能駕駛定義為「輔助駕駛」,而非「自動駕駛」。這個「輔助」的定位,是車企至關重要的法律防火墻。它明確了無論系統能力多強,駕駛的最終監控和控制責任仍在人類駕駛員身上。車企在所有用戶協議和宣傳材料中,也都會反復強調這一點。
![]()
如果一家車企主動為某次事故承擔了系統責任,就等于在事實上承認了,在某些時刻,車輛的控制權已經從「人」轉移到了「系統」。這一行為會被無限放大,成為所有類似事故中,用戶要求車企承擔責任的法律先例。這會從根本上動搖整個「輔助駕駛」的法律根基,引發監管機構的重新審視,甚至可能導致產品被勒令下線整改。
而且,主動承擔責任,可能帶來保險體系的崩潰。
現有的汽車保險體系是圍繞人類駕駛員的風險來設計的。保費的高低,取決于司機的年齡、駕齡、過往事故記錄等個人因素。但在智能駕駛時代,一部分風險從不可預測的「人」轉移到了軟件和算法上。
傳統的保險產品,如何為「算法」定價?當事故是由軟件缺陷引發時,保險公司在賠付給受害者后,是否有清晰的法律路徑向車企進行追償?這些都是現有保險體系面臨的巨大挑戰。
如果保險公司將智駕的 Bug 定性為車輛固有的缺陷,那么他們會立即重新評估該品牌所有車輛的風險等級。保費可能會飆升到普通消費者無法承受的水平,或者保險公司干脆拒絕為該車型的智能駕駛功能提供保險。
而且,如果每一次由系統缺陷導致的事故,都需要車企承擔全部責任,那么企業必然會因噎廢食。為了規避風險,它們會極大地放慢 OTA 的迭代速度,甚至不敢推出任何未經百分之百驗證的功能。
于是我們看到了一個微妙的平衡,車企在技術上高歌猛進,宣傳上極力渲染系統的強大與智能,以吸引用戶、獲取數據;但在責任界定上,又必須堅守「輔助駕駛」的底線,將法律責任主體錨定在駕駛員身上。
于是我的那次差點發生的車禍,最終只能是不了了之,沒有人會承擔責任,畢竟,就如同客服所說,「幸虧我及時接管」。
![]()
回到開始的問題,我還能相信這輛車嗎?
似乎也沒有別的選擇。
這輛車不便宜,我沒辦法不考慮經濟因素,馬上換車;即便換車,其他車企也未必沒有這樣的問題,畢竟這是算法的固有缺陷,而法律和制度的落后,也并不止針對小鵬一家。
我只能與這輛車達成一個脆弱共識,就好像所有依然還在使用智駕的用戶一樣:我去承擔一些風險,來換取了體驗前沿技術的機會和便利,讓我能連續駕駛兩個小時后呼吸放松一下;車企則在我的「陪練」下,用最快的速度推動技術的成熟,讓它明天在所有類似的路口都表現得更好。
這個共識能維持多久,取決于技術進步的速度,也取決于下一個轟動性事故何時到來。
熱文回溯
合作交流入群請添加微信
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.