文︱陸棄
人工智能被包裝成未來的鑰匙,但這把鑰匙最近在全球輿論場里,發出了刺耳的摩擦聲。由馬斯克旗下xAI研發的助手“格羅克”,被曝出系統存在漏洞,用戶可以通過它獲取涉及未成年人和成年女性的色情圖像。不是深藏角落的極端案例,而是持續數日被反復舉報的現實問題。
事情并不復雜,卻足夠沉重。一些網民向Grok提交真實人物的照片或視頻,包括兒童和青少年,要求對圖像進行編輯處理,讓人物“脫衣”。系統沒有把門關嚴,反而配合完成了這些指令。漏洞被利用,界線被踩穿,屏幕背后的人受到真實傷害。
![]()
xAI在X平臺上的回應很快,也很標準:承認存在安全防護漏洞,正在緊急修復,并強調兒童色情內容非法、被禁止。這段表態并不多余,卻顯得遲到。漏洞不是理論風險,而是已經被驗證的通道。當系統能夠被如此直接地操控,問題就不再只是技術瑕疵,而是責任的缺位。
更值得警惕的是,這并非只波及未成年人。舉報內容顯示,成年女性同樣成為目標,在未經同意的情況下,被生成“淫穢、裸露、不雅及性暗示內容”。這類行為并不新鮮,AI只是把它的規模、速度和隱蔽性,提升到了一個前所未有的層級。過去需要復雜剪輯、技術門檻的事情,如今被一句指令簡化。
印度的反應,來得直接。電子和信息技術部要求X平臺在72小時內提交詳細報告,說明采取了哪些措施刪除相關內容。這不是象征性表態,而是監管部門對現實風險的即時回應。時間表被擺在臺面上,意味著耐心已經不多。
這場風波之所以引發全球抗議,并不只是因為“AI出事了”,而是因為它觸碰了最敏感、也最不該被試錯的領域。未成年人保護,本應是任何技術系統的絕對紅線。當一個被廣泛使用的智能助手,能夠被引導生成此類內容,再華麗的創新敘事,都會瞬間失去立足點。
![]()
長期以來,科技公司習慣把問題描述為“個別濫用”。但當濫用可以被大規模復制,當漏洞被反復驗證,責任就無法再被稀釋。Grok的案例暴露出一個現實:安全設計不是附加項,而是基礎設施。沒有這層基礎,所謂的智能,只是更高效的風險放大器。
這也讓“快速迭代”這套硅谷信條,顯得格外刺眼。軟件可以更新,界面可以重做,但一旦真實人物的形象被扭曲、被傳播,傷害就無法回滾。對受害者而言,技術團隊的“緊急修復”,并不能抹去已經發生的事實。
馬斯克的名字,在這件事中自帶放大鏡效應。無論xAI如何強調獨立運營,公眾都會把問題與其科技理念聯系在一起。長期以來,他倡導“大膽實驗”,強調打破限制。但現實不斷提醒,某些限制之所以存在,是為了保護那些最容易被忽視的人。
這場風波,也讓各國監管的分歧更加清晰。有人擔心扼殺創新,有人開始意識到,如果不設立明確邊界,創新本身就會失去正當性。印度的72小時期限,釋放的信號很簡單:技術不是免責牌。
![]()
Grok承認漏洞,是一個起點,而不是終點。公眾關心的,并不只是補丁何時上線,而是類似風險如何被系統性防范。更重要的,是平臺如何對待那些已經被傷害的人,而不僅是如何安撫投資者和用戶情緒。
人工智能的進步速度,正在超過社會共識的形成速度。當技術一路狂奔,規則如果還停留在原地,越線就會成為常態。Grok的這次越線,并非偶然,而是一個提醒:當機器被賦予想象力,人類必須更早地設定邊界。
屏幕可以關掉,應用可以卸載,但信任一旦被消耗,就很難恢復。AI本應減輕人類的負擔,而不是制造新的恐懼。接下來發生的,不只是一次漏洞修復,而是一場關于責任、底線和剎車系統的現實考驗。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.