IT之家2 月 21 日消息,清華大學(xué)智能產(chǎn)業(yè)研究院(AIR)今日宣布,其團(tuán)隊(duì)在自然子刊《npj Artificial Intelligence》上發(fā)表研究,揭示了人類與智駕算法視覺注意力的本質(zhì)差異。
![]()
清華 AIR 團(tuán)隊(duì)通過對(duì)比 36 名駕駛員(18 名專家 / 18 名新手)的眼動(dòng)數(shù)據(jù)與算法表現(xiàn),首次量化人類駕駛注意力的三階段模型。實(shí)驗(yàn)要求參與者完成危險(xiǎn)檢測(cè)、可用性識(shí)別及異常檢測(cè)三類任務(wù),數(shù)據(jù)顯示人類任務(wù)準(zhǔn)確率分別為 0.88、0.86 和 0.98。![]()
研究將人類視覺注意力劃分為掃描(刺激驅(qū)動(dòng))、檢查(語義評(píng)估)、重新評(píng)估(任務(wù)驅(qū)動(dòng))三階段,其中檢查階段平均持續(xù) 705.75 毫秒(專家)和 622.52 毫秒(新手)。當(dāng)將該階段注意力特征融入 AxANet 等算法后,異常檢測(cè)準(zhǔn)確率從 0.724 提升至 0.736,軌跡規(guī)劃誤差降低 11.1%(0.72 米 → 0.62 米)。在視覺語言模型測(cè)試中,僅細(xì)粒度任務(wù)(如 3D 描述)因存在“接地鴻溝”獲得顯著提升。
清華研究人員指出,算法難以自主獲取人類通過經(jīng)驗(yàn)賦予的語義優(yōu)先級(jí)能力。研究提出雙階段偽注意力生成方案,僅需 5 名駕駛員眼動(dòng)數(shù)據(jù)即可實(shí)現(xiàn)算法優(yōu)化,使中等規(guī)模模型(59.10M 參數(shù))無需大規(guī)模預(yù)訓(xùn)練即可提升語義理解能力。該方案已在 UniAD 等車載實(shí)時(shí)系統(tǒng)驗(yàn)證可行性。
本文源自:IT之家
作者:王俊程
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.