![]()
大模型“可控遺忘”技術,未來應成為大模型的高階能力。
▲用戶匿名對話AI仍被扒出真實身份,隱私安全引發關注。圖/IC photo
文| 信海光
以為匿名用大模型就安全?
AI拼拼湊湊照樣認出你,甚至還能扒出疾病、財產等高度敏感信息!《南方都市報》記者測評多款大模型發現:部分主流大模型可被多輪漸進式對話誘導,輸出還原用戶真實身份。
AI與大模型的出現雖為網民帶來極大便利,卻也隨之帶來嚴峻的安全挑戰。而應對這類挑戰的難度,可能較傳統網絡安全治理有顯著提升。
因為要保障用戶的個人信息安全,從傳統技術路線來看,刪除服務器上的數據即可完成義務。但在大模型場景下,企業即便主觀上不想留存用戶信息,模型在服務過程中也會不自覺地“記住”相關數據。想讓模型有意識地“忘掉”數據,至少從目前看,各大主流大模型在這一領域還是空白。
忘記比學會更難。在本質上,金庸小說《倚天屠龍記》張無忌的“忘太極”,《莊子·大宗師》中顏回的“坐忘”,和大模型的“機器遺忘”,在底層邏輯上幾乎是同構的。真正的“學會”,反而是更高級的能力,是不被具體招式、知識束縛;真正的“遺忘”,必須是選擇性的,而不是整體損傷,是刪掉具體信息,卻保留底層能力。
新的數據安全隱患,向大模型開發者提出了一個“可控遺忘”的難題。因為AI并非數據庫,而是一個會記憶的系統,它不是簡單存儲數據,而是把數據融進參數里。很像把墨水滴進水里后,就再也找不到單獨那一滴。所以,傳統刪除其實沒有效果,必須改變認知結構(改模型)。
對于開發者來說,這意味著巨大的變動,而且很可能會引發諸多隱患。比如如何精準控制遺忘的邊界,會不會使模型變笨?比如模型中的各類信息存在相互糾纏與關聯性,如何精準刪掉和你相關的那部分,又不影響其他人的使用?
舉個例子,很可能有一些隱私數據你都沒有向大模型泄露過,但它可以通過碎片信息推導出事實,該如何限制這種能力?
巨大的潛在風險意味著不可控的潛在變革成本。兩全其美的做法,是使大模型在技術演進中主動學會“可控遺忘”,就像“忘太極”和“坐忘”一樣,這是一種高階技能,而非強行降智。現實中,也早有研究人員聚焦于模型在線運行狀態下的數據遺忘問題展開研究。
比如,浙江大學一項核心成果就構建了一個模型在線遺忘機制,可在模型不停服、不中斷服務的前提下完成敏感信息刪除,有效解決了模型上線后發現問題卻無法隨意停機更新的行業痛點。同時,針對模型內信息的糾纏與關聯,該方法能夠在清除目標信息的同時,最大限度保護模型的通用能力。
需要指出的是,人們無需為大模型的遺忘難題過度憂慮。任何新技術的成熟都需要時間,從蒸汽機到互聯網,每一項變革都會伴隨新的挑戰,而人類總能在探索中找到破解之道。
相較于AI可能帶來的其他深層隱憂,“可控遺忘”只是技術演進中的一個階段性難題,隨著算法的優化、技術的迭代,它終將像“忘太極”“坐忘”一樣,成為大模型的高階能力。
AI的進化之路,從來不止于變得更聰明、更強大,更在于學會克制與取舍。既要提供便捷,也能守住隱私底線,這樣的AI才能真正服務于人類,行穩致遠。
撰稿 / 信海光(媒體人)
編輯 / 徐秋穎 馬小龍
校對 / 李立軍
歡迎投稿:
新京報評論,歡迎讀者朋友投稿。投稿郵箱:xjbpl2009@sina.com
評論選題須是機構媒體當天報道的新聞。來稿將擇優發表,有稿酬。
投稿請在郵件主題欄寫明文章標題,并在文末按照我們的發稿規范,附上作者署名、身份職業、身份證號碼、電話號碼以及銀行賬戶(包括戶名、開戶行支行名稱)等信息,如用筆名,則需要備注真實姓名,以便發表后支付稿酬。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.