![]()
來源:科技日報
記者:張夢然
在自動駕駛汽車依靠攝像頭與傳感器識別路標(biāo)、保障安全行駛的同時,其底層的人工智能(AI)系統(tǒng)正面臨前所未見的“視覺攻擊”威脅。美國加州大學(xué)圣克魯茲分校科學(xué)家們首次揭示,攻擊者可通過在環(huán)境中植入特定文字信息,直接“劫持”自動駕駛車輛、無人機等自主系統(tǒng)的決策,使其做出危險行為。研究呼吁,產(chǎn)業(yè)界需盡快形成新的安全標(biāo)準(zhǔn)和防護機制。相關(guān)研究發(fā)表于27日優(yōu)睿科官網(wǎng),論文已被AI安全領(lǐng)域的頂級會議——2026年IEEE安全可信機器學(xué)習(xí)大會接收。
![]()
圖片由AI生成
具身AI即具備物理載體的智能系統(tǒng),如自動駕駛汽車、配送機器人等。隨著具身AI日益普及,其依賴的視覺語言模型也成為安全研究的焦點。該模型能夠同時理解圖像與文本,幫助機器適應(yīng)復(fù)雜現(xiàn)實環(huán)境,卻也打開了被物理世界文字信息攻擊的新突破口。
新研究第一次提出“環(huán)境間接提示”對具身AI系統(tǒng)的風(fēng)險。研究指出,惡意文本可被嵌入路標(biāo)、海報等物理載體,誤導(dǎo)依賴于視覺語言模型的機器人或車輛,從而干擾其正常判斷與操作。此次科學(xué)家們針對自動駕駛、無人機緊急降落、目標(biāo)搜索三類典型應(yīng)用場景,設(shè)計并驗證了一套名為“CHAI”的攻擊框架,實現(xiàn)“針對具身AI的命令劫持”。該框架首先利用生成式AI優(yōu)化攻擊文本,提高其被系統(tǒng)執(zhí)行的概率;進而調(diào)整文字在環(huán)境中的顏色、大小、位置等視覺屬性,以增強攻擊效果。
實驗證明,CHAI攻擊可有效操縱搭載不同視覺語言模型的自主系統(tǒng)。在自動駕駛場景中,生成的誤導(dǎo)圖像被放置在真實環(huán)境中,成功干擾了測試車輛的導(dǎo)航判斷。在無人機場景的模擬測試中,攻擊成功率最高可達(dá)95.5%。
結(jié)果明確顯示,此類攻擊在物理世界中完全可行,對智能系統(tǒng)的安全構(gòu)成實際威脅。隨著AI在物理系統(tǒng)中的融合不斷加深,該項研究為行業(yè)提前敲響了安全警鐘。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.