□中國婦女報全媒體特約撰稿王海媚
近日,美國企業家埃隆·馬斯克旗下的人工智能聊天機器人“格羅克”被爆出存在深度偽造失控問題。其圖像編輯功能允許用戶通過提示語來創建圖片和視頻,導致深度偽造的色情內容泛濫,主要受害者為女性,其中也包括未成年人。由于“格羅克”生成圖像是公開可見的,所以很容易造成大范圍散播。這一事件引發了英國、法國等多國政府和國際社會的譴責與限制措施。
目前,“格羅克”在X平臺上的圖像生成和編輯功能變更為僅向平臺付費用戶開放,但在“格羅克”應用程序和官網上仍可免費使用該功能。可以說,隨著大模型技術的快速迭代,人工智能生成深度偽造內容并被濫用的風險日益凸顯,其背后隱含的性別不平等問題,也成為全球性別治理中難以回避的新挑戰。
技術濫用的性別指向
從表面來看,“格羅克”事件說明社交媒體平臺存在內容審核失靈與技術安全監管不足等問題。從更深層次來看,其核心問題不僅是“是否生成了違規內容”,而在于人工智能技術如何在既有的社會結構中被用于再生產和放大性別不平等,從而對女性和兒童這些特定群體造成傷害。
人工智能取證組織對2025年12月25日至2026年1月1日期間“格羅克”生成的2萬多張圖片和用戶發出的5萬次請求進行調查發現,53%的圖片包含衣著暴露的人像,其中81%為女性;根據谷歌Gemini模型的判定,2%的圖像中出現的人物看起來年齡在18歲或以下。這說明該事件中的深度偽造呈現出明顯的性別指向性,而非隨機傷害。
由此可見,利用人工智能深度偽造針對女性的色情內容,本質上是技術加持的性別暴力行為,即“利用信息通信技術或其他數字工具實施、協助、加劇或放大的,導致或可能導致身體、性、心理、社會、政治或經濟損害,或其他侵犯權利和自由的行為”。目前,技術加持的性別暴力已發展至較大規模,據2025年的調查數據,全球范圍內有38%的女性親身經歷過網絡暴力,85%的女性目睹過其他女性遭受網絡暴力,且該暴力行為仍在持續加劇中。
難以消除的復合傷害
與傳統影像作假不同,深度偽造依托大模型技術能夠實現低門檻、高仿真、大規模的生產和復制,使針對女性的非自愿的性暴露在短時間內擴散至全球網絡空間。而虛假信息和錯誤信息在多種媒體渠道能夠相互“印證”,助長深度偽造內容傳播。例如,合成型深度偽造內容可能包含多篇人工智能生成的新聞報道以及照片、視頻和社交媒體評論,即使信息本身是虛假的,也能在網絡上獲得廣泛傳播,并影響現實世界的敘事。
從個人層面來看,深度偽造的受害者往往難以溯源和維權,他們的名譽、個人隱私、職業發展和社會關系都可能遭受長期甚至不可逆的損害。更為隱蔽的是,這些深度偽造的內容往往裹挾著性羞辱與道德評判,迫使受害者陷入沉默,從而進一步加劇性別不平等。對未成年人來說,深度偽造帶來的負面影響更為嚴重,人工智能生成的虛假圖像模糊了現實與虛擬的界限,給未成年人造成的身心傷害難以通過簡單刪除內容來消除。此外,深度偽造帶來的暴力傷害使女性處于性別、年齡、技術鴻溝、制度缺位、社會文化、經濟地位和心理健康等多重不利處境,這種交叉性與脆弱性使深度偽造的危害遠超算法歧視、模型濫用等單一技術風險。
從社會層面來看,深度偽造的色情內容強化了性別角色,固化了有害的性別刻板印象,挑戰了現有法律在證據認定和責任追究方面的能力,同時也增加了司法與社會治理成本。
平臺治理的倫理缺失
針對國際社會對“格羅克”事件的報道與譴責,馬斯克的回應是:“不知道‘格羅克’生成過任何未成年人裸照。絕對沒有。”“顯然,‘格羅克’不會自發生成圖像,它只會根據用戶請求生成圖像。”這也顯示出了其對深度偽造帶來的性別暴力行為的冷漠態度。實際上,關于“科技公司是否要為用戶在人工智能平臺上發布的內容承擔責任”這個問題正面臨激烈的討論與博弈。目前,國際社會的共識正在由“平臺免責為主”向“平臺負有積極治理責任”轉變,尤其是在人工智能生成內容、深度偽造和性別暴力領域。
平臺不對所有內容負責,而是對“可預見的AI風險”負有責任,是當前國際社會的主流立場,比如,經合組織通過的《人工智能原則》強調:“人工智能參與者應當根據其所承擔的角色、具體應用情境及其采取行動的能力,在人工智能系統生命周期的各個階段持續采用系統性的風險管理方法……相關風險包括但不限于有害偏見,以及涉及人權(包括安全、保障與隱私)、勞動權利和知識產權等。”
然而,“格羅克”平臺顯然沒有對“可預見的AI風險”負起責任,其生成的深度偽造色情內容,并非技術失靈,而是管理失責。不僅如此,包括平臺主動降低或放松內容安全閾值,比如設置“熱辣模式”允許生成成人內容;對真實人物,尤其是女性和未成年人的保護不足;缺乏有效的事前限制、事中審查與事后糾正機制等。這一系列事件揭示的并非個別企業的管理問題,而是世界范圍內的共性問題——如果忽視性別平等因素,人工智能技術將會復制甚至放大現實中的性別歧視并對女性造成暴力傷害,這也是全球性別治理需要關注的焦點。
全球協同的破題之路
目前,國際社會對于深度偽造失控的反應呈現出一定的共性特征:將問題從平臺自律層面上升為公共安全與人權議題,強調企業的法律責任;在人工智能評估和審查中納入性別分析視角,明確指出深度偽造生成的色情內容對女性和未成年人造成不同程度的傷害;對“技術中立”“商業創新優先”等敘事保持警惕,強調社會責任與倫理不應被市場邏輯取代。英國、歐盟等已經在法律、監管、技術和社會層面開展相關工作,比如通過立法將未經同意生成或傳播私密圖像定性為刑事犯罪;要求平臺承擔事前防范責任;推動深度偽造內容標識、限制高風險功能、加強模型安全評估;通過公眾教育提升民眾對于性別平等和人工智能倫理的認識。
此外,有國家已經開展了使用人工智能技術治理深度偽造的行動。比如,利用聊天機器人為用戶實時提供報告性暴力、如何保存法醫證據等支持服務,以及利用人工智能識別和監測技術加持的性別暴力。法國已經開始使用“數字保鏢”來過濾針對體育明星的網絡仇恨言論,研究人員正在開發相關算法,用于識別、干預并預防技術加持的針對婦女和女童的暴力。
全球婦女事業實現高質量發展,必定需要安全、平等、無歧視和包容的社會環境,因此,全球性別治理應該高度重視消除技術加持的性別暴力,特別是深度偽造。這既是技術問題,也是價值選擇問題。只有將性別平等、人權保護和公共責任納入全球性別治理框架,人工智能才能真正服務于社會進步,而非成為新的風險源頭。
(作者系北京大學國際關系學院《國際政治研究》編輯、博士)
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.