據(jù)IT之家,谷歌于當?shù)貢r間2月12日發(fā)布報告披露,其AI聊天機器人Gemini正遭受大規(guī)模“蒸餾攻擊”。攻擊者通過重復提問誘導模型泄露內部機制,其中一場攻擊活動的提示次數(shù)超過10萬次。谷歌判斷,幕后發(fā)起者多為帶有商業(yè)動機的AI私營企業(yè)或研究機構,旨在克隆Gemini模型或強化自身AI系統(tǒng)以獲取競爭優(yōu)勢。
谷歌威脅情報小組首席分析師約翰·霍特奎斯特指出,此次攻擊規(guī)模表明,此類威脅可能已開始或即將蔓延至小型企業(yè)的定制AI工具領域。他將谷歌的處境形容為“煤礦里的金絲雀”,預示大型平臺的遭遇可能反映更廣泛的行業(yè)風險。
谷歌強調,蒸餾攻擊屬于知識產(chǎn)權盜竊行為。科技公司已投入數(shù)十億美元開發(fā)大語言模型,其核心模型的內部機制被視為重要專有資產(chǎn)。盡管廠商已部署識別與阻斷機制,但由于主流大模型服務面向公眾開放,其本質上仍易受攻擊。
谷歌還提到,多數(shù)攻擊試圖套取Gemini的“推理”算法,即其信息處理決策機制。霍特奎斯特警告,隨著越來越多公司訓練面向內部業(yè)務的定制大語言模型,且這些模型可能包含敏感數(shù)據(jù),蒸餾攻擊的潛在危害會更大。他舉例稱,若某公司的模型學習了其“100年來交易的思維方式”,理論上也可能被逐步提取出關鍵商業(yè)機密。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.