![]()
拆解白盒邏輯
編者按
智能汽車產(chǎn)業(yè)滾滾向前,在這摧枯拉朽的關鍵變革期,不斷涌現(xiàn)技術的交鋒。《TechLab》科技實驗室,將聚焦智能汽車產(chǎn)業(yè)重磅的科技創(chuàng)新,我們會深層次解析背后創(chuàng)新的原理,試圖撥開云霧,看到智能汽車下一個十年。
作者|秦章勇
如果總結2025年最火熱的詞,莫過于AI,一年的時間,各行各業(yè)仿佛都經(jīng)過了AI的洗禮,具身智能就是AI涌現(xiàn)的集大成,生產(chǎn)制造則用AI提質(zhì)增速,打工人經(jīng)常用AI軟件做PPT、寫資料以及做海報,善男信女們也用AI算命。
我們習慣了用AI給出答案和結果,并堅信比我們?nèi)祟愑嬎愕母珳剩聦嵳媸沁@樣嗎?
當企業(yè)進入AI應用深水區(qū),更具象的問題就會逐漸凸顯出來,比如AI并不像想象中的那么容易落地,再有就是AI的輸出結果差強人意,難以完全獲得我們信任,對于自動駕駛行業(yè)來說,AI的一個差錯,就可能釀成大禍。
歸根到底,在于AI大模型先天具有“黑盒”特性,輸出的結果很難保證完全正確。
最近科技博主小Lin和北京通用人工智能研究院院長朱松純有一場對談,就涉及到這個核心問題——為什么AI難落地?
這個問題延展到到自動駕駛,怎么讓決策的邏輯“安全、可解釋”,也成為車企的頭等大事,車企和智駕企業(yè)逐漸演化出了VLM、世界模型等多條技術路線。
作為百年豪華車企,奔馳在處理這種問題就顯得輕車熟路,因為有安全這條絕對底線,奔馳嘗試把AI的黑箱變成“白盒”,自動駕駛的邏輯則是更安全、更負責、更守規(guī)矩。
![]()
01
AI大模型的邊界
和規(guī)則算法相比,AI系統(tǒng)可以通過數(shù)據(jù)訓練自動學習并適應新情況,無需顯式編程,這讓其更靈活且泛化能力更強,也是為什么AI大模型被稱為第四次工業(yè)革命的核心。
但成敗皆因此,不同于規(guī)則的強因果指導,很長一段時間,我們都不能理解AI是怎么做出決策和輸出的。
在這里我們先簡單熟悉一下,AI運轉(zhuǎn)的基本原理。
作為一種大模型,AI做出決策時并不會像我們?nèi)祟愐粯樱瑢σ粋€圖片、一句話或者一段文字整個做出理解,而且先將輸入的這些數(shù)據(jù)轉(zhuǎn)換為更小的單元,也就是Token(詞元),這些Token是模型處理和生成內(nèi)容的基本單元。
隨后AI會在自己模型的內(nèi)部結構中,根據(jù)輸入的Token來預測下一個Token,再把預測出來的Token轉(zhuǎn)化成輸出的結果。
開發(fā)人員可以決定算法和數(shù)據(jù),投喂給AI大模型之后得到結果,至于中間的過程——AI是怎么推導結果的,就成為詭秘的“黑盒”。由于大模型的這種向量表達,讓其具有天然的不可解釋性。
所以關于AI有個形象的比喻——訓練大模型,就是科技界的現(xiàn)代煉丹術。
決策過程不透明,就會影響信任度,尤其是深度學習模型,依賴龐大的參數(shù)“煉丹”,但最終得出的結果往往差強人意,這種問題在法律或金融等高風險領域應用時,更容易凸顯出來。如果數(shù)據(jù)過于復雜且隨機,還容易出現(xiàn)大模型幻覺。
具體到自動駕駛,就是安全性堪憂,車輛在自動駕駛狀態(tài)下,有可能出現(xiàn)識別誤判,系統(tǒng)如果錯誤地把廣告牌識別為停止標志并緊急剎車時,就很難追溯是哪個特征觸發(fā)了錯誤判斷。
除了黑盒的不可解釋性,AI大模型需要大量數(shù)據(jù)進行訓練,這也涉及到了大模型的能力邊界問題——嚴重依賴數(shù)據(jù)質(zhì)量。
這就比較容易理解了,大模型需要大量的數(shù)據(jù)訓練,這些數(shù)據(jù)的完整性和準確性,直接決定了大模型的可靠性。而大模型預訓練的核心原則是Scaling Law(規(guī)模化法則),也就是說,只要使用更多數(shù)據(jù)訓練更大模型,就能得到更好的結果。過去很長一段時間,都是Scaling Law指引著AI研究的方向。
但由于Scaling Law的數(shù)學關系遵循冪律分布,意味著模型的性能會隨規(guī)模擴大,在解決問題時呈現(xiàn)邊際效益遞減特征。
![]()
很多大模型預訓練初期會遵循大力出奇跡,數(shù)據(jù)量呈幾何式增長,但到了后期,新增數(shù)據(jù)對提升性能的邊際效益降低,導致?lián)p失函數(shù)下降速度減緩,這就出現(xiàn)了學習飽和?現(xiàn)象。
但在實際應用時,就需要面對各種各樣復雜的場景,我們永遠無法把所有黑天鵝事件都放到大模型去訓練。
這也是自動駕駛行業(yè)常說的長尾場景,在交通中發(fā)生頻率比較低但種類非常多的情況,比如極端天氣、異形物體識別以及人類行為不可預測性等,都很難通過現(xiàn)實數(shù)據(jù)充分訓練。
面對大模型這些天生的缺陷,車企又該如何用好它?
02
以安全為底線的白盒邏輯
2023年12月,奔馳拿到北京L3級高速公路測試資格,2024年8月,又獲得L4級的測試資格,這讓奔馳成為第一家獲得北京指定城市道路和L4級自動駕駛測試批準的國際汽車制造商。更早的2021年,奔馳就已經(jīng)在德國拿到政府批準的L3級商用自動駕駛系統(tǒng)。
在事故責任難以厘清的背景下,奔馳之所以能狂飆突進,一個很大的原因在于,奔馳可以在AI黑盒不可解釋性中,增加了法律層面的“可解釋性”。
面對自動駕駛,奔馳一貫的策略是“以人為本”,也就是安全永遠都是第一位,基于此,奔馳對自動駕駛進行了多重安全冗余以及制約。
首先就是我們都能看到的物理冗余,奔馳在制動系統(tǒng)、轉(zhuǎn)向系統(tǒng)甚至車載電網(wǎng)等方面采用了?冗余備份架構?。比如奔馳的轉(zhuǎn)向控制,就用了雙回路架構,配合制動與供電系統(tǒng)的冗余備份,即使某一模塊故障,冗余系統(tǒng)仍能確保車輛可控,這也讓奔馳的“失效概率”可以壓縮至業(yè)內(nèi)最低。
再有就是奔馳強大的安全系統(tǒng),在奔馳的軟件架構中叫做安全力場SFF。
安全力場的全稱是自動駕駛安全防護場(Safety Force Field ),最早由英偉達提出,該框架是用數(shù)學驗證的計算模型保障自動駕駛安全,工作的邏輯是通過實時攝入傳感器數(shù)據(jù),分析并預測環(huán)境動態(tài),輸出相應動作,從而避免車輛碰撞,不引發(fā)危險場景。
如果說物理冗余是給車輛加了一層保險,那么安全力場SFF,則是用來約束、規(guī)范AI大模型的防護網(wǎng)。
我們都知道,AI容易出現(xiàn)幻覺或者面對長尾場景比較被動,比如車輛在面對一個不規(guī)則物體時,AI可能會認為是一個塑料袋,車輛可以直接加速穿過去。
這個時候,奔馳的安全力場就會介入,通過激光雷達傳來的物理數(shù)據(jù)來進行計算,判斷出前方有障礙物阻擋駕駛,意識到會對安全產(chǎn)生威脅,如果不剎車將會產(chǎn)生碰撞,所以車輛會終止AI大模型給出的加速指令,發(fā)揮AEB的功能,果斷剎車。
我們可以看到,以安全為前提的背景下,奔馳會利用系統(tǒng)2的物理規(guī)則,去約束系統(tǒng)1的直覺大模型,提前抹除交通隱患。
除了有安全力場用來確定性兜底,奔馳在數(shù)據(jù)方面也可以解釋合理性。
![]()
2024年1月,奔馳就申請了一項名為“用于存儲車輛數(shù)據(jù)的方法和系統(tǒng),車輛和計算機程序產(chǎn)品”的專利,這是一種用于存儲車輛數(shù)據(jù)的方法,可以監(jiān)測事件記錄的觸發(fā)條件,并基于與所述觸發(fā)條件關聯(lián)的信號判斷觸發(fā)條件是否滿足等。
如今奔馳已有一套完整的自動駕駛數(shù)據(jù)存儲系統(tǒng)(DSSAD),不僅可以記錄車輛的行駛軌跡,還可以記錄決策的邏輯,可以判斷是否是傳感器遮擋, 亦或者定位丟失等等。憑借這套記錄的數(shù)據(jù),就可以重構決策的過程,也具備了法律層面的“可解釋性”。
03
建立信任的三部曲
奔馳為AI做多道防線的背后,是AI和人類社會脆弱的信任關系,這也是AI Agent落地難的癥結。
人與人之間建立信任,是一種直覺的反應,這種直覺可以通過行為判斷來善意,通過回應確認存在,也可以通過關系來衡量責任。但對于AI智能體來說,這個邏輯不在適用,因為我們創(chuàng)造了比我們更難理解的物體。
這也有AI大模型本身局限性原因,Next Token Prediction(預測下一個詞/動作)作為大模型的核心訓練范式,每次預測都依賴于前序生成結果,這就導致早期小問題會在后續(xù)步驟中無限放大,而且大模型缺乏對全局語義或跨概念關系的理解能力。
這種局限性在需要多步規(guī)劃或復雜推理的長尾任務中,就會徹底暴露出來。
針對人和AI如何建立信任,朱松純教授及其團隊提出了CUV架構,其中C代表認知架構,是智能體的控制中心,U是勢能函數(shù)集合,是智能體的技能庫。V則是價值函數(shù)集合,是管理智能體的價值觀、偏好和決策原則的系統(tǒng)。
![]()
在訓練過程中,認知架構是衡量U和V的關鍵,按照認知架構,可以決定是否以效率(U)為先,還是以價值觀(V)為先。
對應到汽車行業(yè),目前很多自動駕駛會非常激進,比如搶黃燈、壓道變線,或者加塞等等,這些會被我們認為是非常“老司機”。
不過對于奔馳來說,人和AI需要建立一個強信任的關系,也就是說奔馳會把“V”放大,一切行動都應該建立在安全的基礎上,比如尊重規(guī)則,絕對不會去搶黃燈,即便在沒有紅綠燈的斑馬線上,也會禮讓行人。
給AI劃定紅線后,奔馳的AI和人類相處起來,也會更融洽。
解決了信任問題,AI Agent的下一步就是需要理解人,成為人類的朋友。
在很多情況下,AI Agent更像是一個冰冷的機器,甚至有觀點認為,AI不需要理解世界,也不會真正理解任何東西。
按照朱松純的觀點,讓AI Agent成為人類的朋友,需要給AI“立心”,除了上面所說的“V”之外,還需要讓AI擁有獨立心智,也就是“意圖理解”的能力。
奔馳也朝著這個方向努力,2025年9月,奔馳和字節(jié)跳動宣布戰(zhàn)略合作全面升級,新車搭載的豆包大模型,讓奔馳虛擬助手反應更快,同時擁有了短期記憶和上下文理解的能力。
當系統(tǒng)的安全屬性到足以抹除一切隱患,AI能夠真正理解需求、滿足需求,信任就會水到渠成,AI Agent落地也不再有阻礙。
這或許就是奔馳在“安全至上”的造車理念中,想要達到的本質(zhì)目的。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.