關鍵詞
AI安全
安全廠商 LayerX 披露新型 " 字體渲染 " 攻擊手法,利用自定義字體和 CSS 樣式,巧妙偽裝惡意指令,成功騙過 ChatGPT、Claude、Copilot 等多款主流 AI 工具。
這種攻擊的核心在于制造 " 信息差 ":AI 助手抓取的是網頁底層的結構化文本,而用戶看到的是瀏覽器渲染后的視覺畫面。黑客借此向 AI 隱藏真實意圖,導致 AI 向用戶提供危險建議。
![]()
攻擊者無需依賴 JavaScript 或任何瀏覽器漏洞,僅利用自定義字體和基礎 CSS,就能在網頁渲染層向用戶隱藏并展示惡意指令。
攻擊者通過修改自定義字體文件中的字形映射,將原本正常的英文字母渲染成亂碼,同時將隱藏的惡意載荷顯示為可讀指令。
隨后,他們利用 CSS(如極小字號或特定顏色)隱藏無害內容,并放大惡意載荷。結果是,純文本解析器(AI)看到的是安全內容,而用戶在瀏覽器中運行的卻是攻擊者控制的危險指令。
![]()
這樣一來,AI 工具在分析網頁時只能讀取到被偽裝的無害內容,而瀏覽器卻會將經過特殊編碼的惡意指令清晰地展示給普通用戶。
LayerX 設計了一個以《生化奇兵》游戲 " 彩蛋 " 為誘餌的釣魚頁面。該頁面誘導用戶復制并運行一段代碼。當受害者出于謹慎,要求 AI 助手評估該指令的安全性時,AI 由于只能讀取到隱藏的無害代碼,便會給出 " 絕對安全 " 的誤導性答復。這種手法高度依賴社會工程學,利用了用戶對 AI 工具的信任,從而誘導受害者在本地設備上執行反向 shell 等高危命令。
LayerX 于 2025 年 12 月 16 日向受影響的 AI 廠商報告了這一漏洞,但各方反應差異巨大。微軟是唯一一家積極響應并完全修復該問題的企業。
![]()
相比之下,谷歌最初將其評為高危漏洞,隨后卻以 " 不會造成重大用戶傷害 " 及 " 過度依賴社會工程學 " 為由將其降級并關閉,多數其他廠商也以超出安全防范范圍為由拒絕處理。
![]()
安全圈
![]()
網羅圈內熱點 專注網絡安全
實時資訊一手掌握!
好看你就分享 有用就點個贊
支持「安全圈」就點個三連吧!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.