![]()
吉開 ijikai.com 3月18日訊—— 自動駕駛領域的資深專家,竟然在自己最熟悉的領域“栽了跟頭”。近日,現任Mozilla首席技術官、前Uber自動駕駛部門負責人拉菲·克里科里安(Raffi Krikorian)通過長文分享了一段驚心動魄的經歷:他駕駛的特斯拉Model X在開啟全自動駕駛(FSD)功能時發生嚴重事故,導致車輛當場報廢。
據克里科里安描述,這起事故發生在美國灣區某住宅區的一條街道上。對他而言,這條路早已駕輕就熟,此前已往返行駛過數百次。
事故發生當天正值周日,他正載著兒子前往參加童子軍活動。在車輛進入一個彎道之前,FSD系統的表現一直非常平穩。然而,就在過彎的一瞬間,系統突然出現異常:
- 突發異響與抖動: 方向盤毫無征兆地開始劇烈抖動。
- 異常減速: 車輛在抖動的同時伴隨著減速。
- 干預無效: 盡管作為專業人士的克里科里安反應迅速,第一時間伸手試圖奪回方向盤控制權,但車輛已失去控制,徑直撞向了路邊的混凝土墻。
巨大的沖擊力導致這輛Model X當場報廢。由于碰撞猛烈,克里科里安本人遭受了腦震蕩,并伴有長達數日的頭痛及頸部僵硬癥狀。萬幸的是,坐在后座的兒子在事故中并未受傷。
值得關注的是,克里科里安并非“大意”的駕駛者。他表示自己始終遵循特斯拉的要求,將雙手放在方向盤上保持警惕。他透露,自己對FSD的使用非常謹慎,是先在路況簡單的高速公路上磨合后,才逐漸在普通道路上開啟,沒想到最終還是未能幸免。
盡管這是一起疑似系統算法或執行機構失效導致的事故,但在法律判定上,結果卻令當事人頗為無奈。
保險判定結果:事故的全部責任被歸于克里科里安名下。
深度解析:
目前,特斯拉的FSD(Full Self-Driving)系統在法律框架內仍被定義為Level 2(組合駕駛輔助)。這意味著:
- 責任歸屬: 無論系統如何擬人化,駕駛員始終是駕駛的第一責任人。
- 監控義務: 駕駛員必須全程負責監控路況,并對系統的任何錯誤操作負責。
這起事故再次引發了行業對“自動駕駛信任陷阱”的討論:當一套系統在99%的時間里表現完美,專業人士也會不自覺地放松警惕,而剩下的1%往往就是致命的代價。
這起事故最令人深思的地方在于:出事的不是一個對科技一竅不通的普通車主,而是一位曾執掌Uber 自動駕駛部門、現任Mozilla CTO的頂級行業專家。
長期以來,特斯拉 FSD 在網絡輿論中被部分擁躉吹捧為“駕駛之神”,甚至被視為已經超越人類駕駛員的“完全自動駕駛”。然而,現實卻潑了一盆冷水:
- “接管陷阱”無處不在: 當系統在 99% 的時間內表現得像老司機時,人類的警惕性會不可避免地下降。克里科里安即便手握方向盤,在短短一兩秒的系統突發異響與抖動面前,依然無法阻止車輛撞向混凝土墻。
- 營銷辭令與現實的脫節: 盡管名字叫“Full Self-Driving”(全自動駕駛),但在法律和技術標準上,它依然只是 Level 2 輔助駕駛。這意味著,特斯拉在享受高額選裝費的同時,通過服務條款將所有事故責任轉嫁給了駕駛者。
- 專家也會被“收編”習慣: 正如克里科里安所言,他在長期的使用中逐漸形成了習慣,降低了防備。這種“溫水煮青蛙”式的信任,正是目前輔助駕駛系統最大的安全隱患。
結語:
我們不應否定技術的進步,但絕不該對其產生盲目的“宗教式崇拜”。在真正的 L3 甚至 L4 級自動駕駛法律法規完善之前,任何將生命完全托付給算法的行為,都是一場代價高昂的豪賭。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.