當我們把目光從智能駕駛的喧囂中稍稍移開,會發現智能座艙正在經歷一場更為深刻的革命。
11月20日,華為在廣州舉辦的乾崑生態大會上,介紹了鴻蒙座艙核心架構——MoLA混合大模型Agent架構,以及智能座艙L1至L5五級分級標準,并宣布鴻蒙座艙邁入L3“專業助理”階段,推動行業從“功能驅動”邁向“體驗驅動”。
鴻蒙座艙,打通從生態應用+智能算法+座艙硬件的完整鏈路,為用戶打造極致的座艙體驗,其意義早已超越單一技術的成功
![]()
截至2025年10月,鴻蒙座艙用戶數已突破130萬,搭載鴻蒙座艙的問界車型,在2025年1—10月的平均凈推薦值(NPS)達到驚人的93.6%。它不僅是一個產品的成功,更揭示了中國智能汽車產業未來十年的發展路徑。
——誰能定義人車交互的下一代范式,誰就能掌握通往未來的鑰匙。
▌座艙分級:從無序到規范
華為在充分吸收行業經驗與通用AI分級理念的基礎上,結合自身在智能座艙領域的長期實踐,并融合對用戶需求與技術趨勢的前瞻判斷,提出了關于座艙五級智能化分級的標準。在這套標準中,智能座艙被劃分為五個等級:
L1 指令助手:具備基本的語音識別和觸控操作,各系統相互獨立。
L2 任務助手:實現多模態交互,系統間初步聯動。
L3 專業助理:具備場景感知能力,能夠主動提供服務——這是從“工具”邁向“伙伴”的關鍵分水嶺。
L4專屬管家:實現情感識別與共情,成為出行伙伴。
L5數字超人:具備自我學習和進化能力。
![]()
在傳統認知中,智能座艙無非就是“大屏+語音助手”。但L3級別的座艙,已經完全超越了這種認知。
相較于前兩級,L3階段具備長期記憶、模糊意圖理解等核心能力,可主動提供服務。依托感知力、記憶力等六大類人能力,座艙能記住用戶通勤習慣并主動創建場景,能夠調用車輛內外資源,主動提供服務閉環。
這套標準之所以能受到行業關注,在于它精準地定義了L3級座艙的三個關鍵能力指標:
場景感知力:能否通過多模態融合感知,理解“人-車-環境”構成的復雜場景。
意圖理解力:能否理解用戶的模糊意圖和潛臺詞,而不僅僅是執行精確指令。
服務閉環力:能否自主調用生態資源,完成從感知到決策再到執行的完整任務鏈。
比如,用戶要喝咖啡,只需說“想喝杯咖啡”,鴻蒙座艙就能理解這一模糊表達,自主聯動外部應用完成咖啡館篩選、口味選擇、在線預訂支付的全流程,實現駕駛與生活場景的無縫銜接。
座艙作為用戶接觸時間最長、感知最強烈的空間,其體驗好壞直接決定了品牌的市場地位。
長期以來,智能座艙缺乏統一評價標準,部分車企將屏幕數量多、尺寸大、功能多等同于“智能”,但實際上很多功能華而不實,操作邏輯復雜,用戶學習成本高,在駕駛場景中反而增加了分心和操作負擔。
華為智能座艙分級體系的推出,不僅為消費者提供選擇依據,更有助于推動行業從“無序競爭”向“規范發展”轉型,讓智能化回歸體驗本質,加速汽車從“交通工具”到“沉浸、自然、有溫度的移動生活空間”的轉型。
▌架構革命
在智能座艙的競爭中,各家廠商都在堆砌硬件參數,但真正的分野在于架構設計。
從HarmonySpace 5開始,華為鴻蒙座艙就開始采用MoLA架構,將多模態感知、通用大模型、垂域智能體進行有機融合,構建起從用戶意圖理解到車輛硬件執行的完整鏈路。
![]()
要理解MoLA的價值,我們需要先看清傳統智能座艙的困境。
當前車內座艙普遍面臨“三個孤島”問題:感知孤島(各傳感器數據不通)、能力孤島(各系統功能割裂)、生態孤島(應用與服務離散)。用戶不得不扮演“CEO總裁”的角色,在不同功能間手動切換。
![]()
MoLA架構的突破性在于,它用“混合大模型Agent架構”的思路重構了座艙的運作范式,核心在于不依賴于單一的全能模型,而是通過一個“大腦”(核心Agent)協調多個專業“小腦”(專用模型或工具) 來完成任務。
這個架構包含三個核心層次:
頂層是“超級大腦”。基于通用大模型。它不滿足于簡單的語義理解,而是構建了包含出行常識、場景邏輯、用戶習慣的深度認知圖譜。
當用戶說“我想看海”,它理解這不僅是導航需求,還包含著情緒放松、視覺享受、可能需要停車拍照等復合意圖。
中層是“混合智能體”。五個高度專業化的智能體分工協作:導航Agent精通路況與路徑規劃;車控Agent掌管全車硬件狀態;多媒體Agent負責內容推薦與體驗優化;百科Agent提供實時知識服務;新聞Agent篩選個性化資訊。每個智能體都在特定領域達到“專家級”水平。
底層是“執行網絡”。通過標準化的設備抽象層,將座艙內的各類硬件(從空調、座椅到香氛、音響)轉化為可統一調度的資源池。
![]()
MoLA架構的技術先進性體現在三個關鍵環節:
全感官體驗上,結合適用于智能系統的“感知-決策-執行”三段論,全感官體驗對應感知能力、執行能力的升級。
對應過來,座艙想要更好地滿足用戶需求,除了要提高獲取信息的能力,還要提升智能座艙的“表達能力”,通過觸覺、聽覺、視覺、嗅覺在內的多模態感知等塑造出一個沉浸式、個性化、充滿關懷的移動空間。
基于此,鴻蒙北向生態發布HUAWEI SOUND空間音專區和HUAWEI SOUND影院專區,拉高了人們對基于多模態協同表達的娛樂休閑體驗的期待和想象力。
![]()
自然交互上,MoLA架構支持全域免喚醒功能,徹底打破了傳統語音交互的“指令束縛”。用戶一句“車里有點暗”即可自動開啟閱讀燈,“想放松一下”便能聯動座椅按摩、氛圍燈與音樂打造休閑場景,模糊語義理解成功率高達85%。
更關鍵的是連續傾聽與靈活糾錯機制——導航途中隨口調整目的地、聊天時穿插車控指令,系統均能精準識別,真正實現“口語化控車”。
這一體驗升級的核心,是多模態感知與通用大模型的協同賦能:座艙視覺傳感器實時捕捉環境亮度、用戶姿態,聽覺模塊精準分離人聲與噪音,再通過大模型快速解析模糊意圖,讓交互從“指令匹配”升級為“場景預判”。
主動服務上,智能體間的協作機制確保了任務閉環。比如后排乘客睡著了,傳統車機沒有得到“指令”前就不會做什么,但是MoLA架構可以像一個智能管家一樣,協調各傳感器,各垂直智能體,完成對乘客的貼心關懷:后排攝像頭對乘客閉眼休息的動作進行識別,來實現主動睡眠關懷,調低音量,并且可以根據畫面色彩自動調節車內氛圍燈——整個過程在秒級內自動完成。
![]()
MoLA架構的突破性意義在于打破了智能座艙“感知-決策-執行”的割裂鏈路。通過多模態感知、通用大模型與垂域智能體的深度融合,它構建起“縱向貫通硬件-車機-應用,橫向覆蓋出行-娛樂-生活”的全域智能體系,讓座艙徹底擺脫“工具屬性”,進化為懂用戶、會預判的“主動服務伙伴”。
![]()
從助手化身為助理,從工具進階到伙伴,MoLA架構加持下的鴻蒙座艙正徹底改變我們的汽車生活。
▌ 寫在最后
華為推出座艙的L1-L5分級體系,明確了從指令助手(L1)到數字超人(L5)的進階路徑,其核心依據正是智能座艙未來發展的三大核心方向:全感官體驗、自然交互、主動服務。
而MoLA架構的意義不僅帶來了智能座艙體驗的顛覆,更為智能汽車的下半場競爭劃定了全新的規則,未來的差異化優勢,不再源于硬件參數的簡單堆砌,而源于底層架構的貫通能力。
這讓人不禁想起《鋼鐵俠(參數丨圖片)》中的賈維斯。賈維斯不僅是執行指令的工具,更是理解鋼鐵俠意圖、預判需求的伙伴,那種默契的配合,恰是智能座艙進化的終極方向。
今天的鴻蒙座艙,正在這條道路上快速奔跑......
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.