![]()
來源:安全內參
OpenAI透露,旗下前沿大模型的網絡攻防能力正在快速提升,在CTF比賽中,8月GPT-5僅得分27%,11月GPT-5.1-Codex-Max達到了76%,預計未來發布的前沿模型都將達到高級別網絡安全水平;
OpenAI指出,高級別風險大模型的一個重要能力,是模型可以自主運行更長時間,從而為類似暴力破解等依賴長時間運行的攻擊鋪平了道路。
安全內參12月12日消息,AI巨頭OpenAI發布報告稱,旗下前沿AI模型的網絡能力正快速提升,并警告即將發布的模型很可能帶來“高”等級風險。
這些模型日益增強的能力,可能會顯著擴大能夠實施網絡攻擊的潛在群體。
OpenAI指出,其近期發布的模型能力已出現明顯躍升,尤其是在模型可自主運行更長時間方面,從而為類似暴力破解等依賴長時間運行的攻擊創造條件。
該公司稱,GPT-5在8月的奪旗賽(CTF)中得分為27%,而GPT-5.1-Codex-Max在11月則達到了76%。報告指出,這一變化反映出與網絡安全相關的性能正加速提升。
![]()
圖:OpenAI定義的高級別網絡安全能力
OpenAI在報告中表示:“我們預計即將推出的AI模型將沿著這一軌跡繼續發展。因此,我們在規劃和評估時,假設每個新模型都可能達到我們準備度框架中‘高’等級網絡安全能力水平。”
高風險模型將擁有長期運行的能力
OpenAI在今年6月曾就生物武器風險發布類似警告,隨后在7月推出了ChatGPT Agent,而這一模型的風險確實被評為“高”等級。當前的網絡安全擔憂,與OpenAI年初針對模型在生物武器濫用方面能力提升所發出的警示相呼應。
“高”是排名第二的風險等級,僅次于“關鍵”級別,即模型不適宜公開發布。
然而,公司并未說明何時會出現首批被評為具有“高”等級網絡安全風險的模型,也未指出哪些未來模型類型可能構成此類風險。
OpenAI工程師Fouad Matin表示:“我想特別強調的一個觸發因素,是模型能夠長時間持續運行。”
Matin稱,這類依賴長時間運行的暴力破解攻擊更容易被防御。
他補充說:“在任何具有防御機制的環境中,這類行為都很容易被發現。”他指出,即便模型變得更強,暴力破解嘗試依然可以被檢測到。
OpenAI與行業伙伴共同加強網絡韌性
能夠發現安全漏洞的領先模型能力正不斷提升,這不僅發生在OpenAI。
因此,OpenAI表示,它正持續加強與各方在網絡安全威脅方面的合作。比如,2023年,OpenAI與其他領先實驗室共同創辦了前沿模型論壇。
公司稱,將成立一個獨立的前沿風險委員會。委員會將扮演咨詢小組的角色,“使經驗豐富的網絡防御者和安全從業者能與OpenAI團隊密切協作”,讓外部網絡安全專家定期參與內部工作交流。
此外,OpenAI正在對Aardvark進行私測,這是一款供開發者用來發現其產品安全漏洞的工具。開發者必須申請才能獲得Aardvark的使用權限。OpenAI表示,在早期試用中,Aardvark已發現了多個關鍵安全漏洞。
參考資料:axios.com
閱讀最新前沿科技趨勢報告,請訪問歐米伽研究所的“未來知識庫”
https://wx.zsxq.com/group/454854145828
![]()
未來知識庫是“ 歐米伽 未來研究所”建立的在線知識庫平臺,收藏的資料范圍包括人工智能、腦科學、互聯網、超級智能,數智大腦、能源、軍事、經濟、人類風險等等領域的前沿進展與未來趨勢。目前擁有超過8000篇重要資料。每周更新不少于100篇世界范圍最新研究資料。 歡迎掃描二維碼或訪問https://wx.zsxq.com/group/454854145828進入。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.