【作者 】戴昕(北京大學法學院長聘副教授)
【來源】北大法寶法學期刊庫《環球法律評論》2025年第5期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。
![]()
內容提要:人工智能安全是各國當前均重視的復雜治理議題。美國的人工智能治理實踐近年來受到“國家安全泛化”思維的影響,而歐盟對特定人工智能應用采用禁令式立法,體現出其面對某些人工智能風險時的“安全絕對化”思維。對于美歐兩大法域的這兩種安全思維,可結合相關法域治理者面臨的內外環境與社會認知及情緒加以理解。這兩種思維對于各國人工智能國內治理體系的有效建構與必要國際合作的開展均可能產生負面影響。對它們在理論層面加以批判性審視和分析,有助于中國超越類似思維的桎梏,有效探索有利于自身發展和人類命運共同體的人工智能治理方案。
關鍵詞:人工智能治理;國家安全泛化;風險規制;數據安全;內容安全
目次 一、引論:人工智能時代的安全思維 二、從網絡自由到國家安全泛化:以TikTok事件為例 三、預防原則與禁令規制:歐盟《人工智能法》中的安全絕對化思維 四、兩種安全思維對治理的影響 五、思考人工智能安全治理的未來 六、結語
一
引論:人工智能時代的安全思維
事關安全的考量一向不簡單,在具體語境中,要追求何種安全,要保障多高程度的安全,不同個體及群體在認知、偏好和觀念上常有明顯差異。
自互聯網普及以來,“安全”就一直是網絡數字治理的最基本面向。網絡數字語境中的安全議題覆蓋廣泛,極端者如網絡暴力致受害者死亡,嚴重者如電信詐騙造成民眾巨額財務損失,尋常者如電商平臺侵害消費者權益,不一而足。國家安全當然也是題中應有之義——各類從一國境外發起、針對該國網絡基礎設施的破壞行動,或借助網絡開展的各類敵意行動,在公開報道中時有出現。而當人工智能技術逐步被引入數字經濟的生產組織和生產場景后,許多互聯網時代已出現的問題延續下來并有所演進。例如,作為當代網絡法治“原點”問題的網絡性暴力現象,在元宇宙和體感交互技術的“助力”下,生出更為惡劣的形態,也引發新一輪安全治理呼聲。而在總體更為嚴重的安全焦慮籠罩下,無論社會公眾還是決策精英,其有關人工智能治理的話語、認知和思維,相比于此前互聯網時代的基調都有明顯轉變,安全作為治理議題的優先性更為突出。
但人工智能治理語境中,各國治理者尋求實現的“安全”到底意味著什么?結合對有代表性的制度動態的觀察,本文嘗試識別并分析美國和歐盟這兩大主要法域近年來呈現的有關人工智能安全的政策思維模式。以TikTok事件相關法律流程為典型樣本,可看到美國在人工智能治理領域的安全思維有“國家安全泛化”傾向。相比早先治理互聯網時的自由放任姿態,美國近年將國家安全作為統領人工智能治理論域的首要議題,其范疇也遠超出如自動化武器、大規模網絡攻擊等場景,橫向吸納了內容、數據、算法治理等各類此前與國家安全有一定區別的常規議題。不但美國立法和行政機關可在并無“實錘”的情況下認定一家商業社交媒體平臺構成“嚴重、特殊的國家安全風險”,而且司法機關也會對政府泛化國家安全的舉措予以合憲性確認。
而以《人工智能法》(Artificial Intelligence Act)為觀察樣本,歐盟有關人工智能安全治理的思維模式受其在風險規制領域采用的預防原則(precautionary principle)影響,傾向于對特定人工智能風險作靜態認知、對安全作絕對化追求。盡管《人工智能法》在外觀上呈現出技術理性的特點,嘗試在梳理應用場景、區分評估風險的基礎上搭建規制架構,但其背后存在情緒性因素驅動。這尤其體現在該法對“不可接受風險”(unacceptable risks)的識別及其采取的缺乏動態考量的禁令式應對之上。在憂慮人工智能風險的情緒于全球流行之際,歐洲決策者更看重的是在法律和政策層面率先拋出鮮明但趨于絕對化的安全至上立場。
本文將對美歐前述兩種有關人工智能治理的安全思維作批判性分析。毫無疑問,上述安全思維不足以勾勒全球范圍內有關人工智能安全治理思維的完整圖譜。借助對美歐相關制度動態的觀察,本文旨在提煉這兩種具有普遍性的思維模式,并批判性地分析其對人工智能治理的可能負面影響。國家安全泛化思維會阻礙人工智能治理領域有益且必要的國際合作,也會影響一國國內安全治理的正常建構和實施。而安全絕對化思維強化了人工智能治理領域中常見的非此即彼、非黑即白的思維慣性,過早放棄了對有正面社會價值的應用本可采取的更為克制、動態適應的監管方案。中國應有意識地避免前述兩種思維的負面影響,尋求有利于保障人工智能積極健康發展的治理方案。
二
從網絡自由到國家安全泛化:以TikTok事件為例
美國在網絡數字領域長期標榜其自由競爭、開放創新的治理理念。即便在如《國際緊急狀態經濟權力法》(International Emergency Economic Powers Act)這樣與國家安全直接相關的限制性涉外立法中,美國也曾專門將跨境信息流動排除在限制性監管的適用范圍之外。但近年來,美國對地緣競爭及相關國家安全考量日益看重,政府對科技領域的干預動力明顯增強。自2018年以來,美國政府多次叫停、阻攔涉及中國企業在美科技領域投資的交易。而為遏制中國發展先進人工智能,美國政府運用包括出口管制在內的各類直接和間接規制手段,限制中國獲得研發所需硬件和軟件。當中方取得如深度求索(DeepSeek R1)一類研發進展時,就會被視為構成針對美國的嚴重國家安全風險。更諷刺的是,這種官方敘事如今已被傳統上宣揚技術無國界的美國產業界廣泛采納。像OpenAI等美國頭部人工智能企業均公開向白宮建言加大針對中國的限制力度。盡管國家安全泛化思維在美國涉新型人工智能的法律、監管和政策領域相當突出,但其對法律流程的全面、深刻影響,在TikTok事件這一涉及“老一代”人工智能——內容推薦算法——的案例中呈現得尤為明顯。TikTok事件的法律紛爭表明,包括數據安全、內容安全等在內的傳統治理議題,在美國已被深度統合到國家安全議題之下,這使得國家干預數字經濟活動的傳統邊界規則被根本動搖。
(一)流行短視頻社交平臺的“國家安全風險”
2024年4月,美國會通過的《保護美國人免受外國對手控制應用程序侵害法》(Protecting Americans from Foreign Adversary Controlled Applications Act)被時任總統拜登簽署生效。該法中,知名短視頻社交媒體公司TikTok及其母公司字節跳動被指名道姓認定為“受外國對手控制”,并被要求在法案生效后270天之內完成“符合標準的權益剝離”(qualified divesture),否則不得繼續在美國境內運營。所謂“符合標準的權益剝離”,指TikTok需通過交易等方式將其股權中由“外國對手”直接或間接持有的比例降至20%以下。TikTok及其用戶隨即在哥倫比亞特區聯邦上訴法院提起訴訟,控告該法違憲。TikTok方提出,由于技術、商業和法律三方面因素,TikTok不可能按時完成權益剝離,因此該法實際上就是對TikTok的禁令,對言論自由構成嚴重限制,需接受嚴格合憲性審查。在應訴狀中,美司法部為論證“不賣就禁”的合憲性提出的論點之一,是這一措施符合并服務于最重要的國家利益,即應對TikTok構成的所謂“特殊的國家安全風險”。為支持上述論點,美司法部最初只援引了一些充滿臆測的媒體報道和智庫材料,后向法庭提交了一份長達174頁的國會內部聽證發言記錄,但又以涉密為由拒絕讓原告查看這些所謂的事實證據。而就該論點的邏輯而言,“因為中美存在競爭關系,所以中國未來可能利用一切手段傷害美國”,這是典型的“莫須有”。
如此缺乏事實基礎和邏輯性的敘事,在此前其他針對中國企業的案件中就已被美政府拋出,而其被不斷重復、擴散后,逐漸便在美國公共政策話語中獲得近乎“常識”的認知待遇。美國法院對此幾乎照單全收。2024年9月16日,哥倫比亞特區聯邦巡回上訴法院組織了該案初審的口頭辯論,主審法官在庭上甚至直接給作為被告的政府“支招”,提示其應去查閱一個對其有利的先例。而在12月6日做出的初審判決中,撰寫附和意見的法官提出即便《保護美國人免受外國對手控制應用程序侵害法》構成基于內容限制表達自由、應適用最嚴格的合憲審查標準,只要國會認為有必要“假設”國家安全風險的存在、判斷其他措施不足以應對此種風險,法院也便不宜置喙。TikTok在初審判決后緊急向美聯邦最高法院上訴,后者予以受理并加急審理。但在2025年1月17日做出的簡短一致判決中,美最高法院認為“不賣就禁”的限制是針對所有權結構,并非針對言論內容本身,只需適用中等水平審查;盡管政府在證成禁令時提到了內容安全考量,但其同時提出了內容中立的數據安全理由,后者足以支持該法的合憲性。
2025年1月19日,《保護美國人免受外國對手控制應用程序侵害法》原定的“不賣就禁”期限達至,TikTok短暫在全美下線半天。但自特朗普1月20日就任以來,多次簽署行政令,要求美司法部暫停依據《保護美國人免受外國對手控制應用程序侵害法》對TikTok執法,以尋求與中方協商解決該公司相關股權與運營安排。
(二)以數據安全捍衛內容安全:國家安全泛化的典型路徑
傳統上,數據安全治理針對的主要威脅是未經許可的數據獲取行為,廣義上也涵蓋網絡攻擊導致的隱私侵害。而內容安全治理主要針對可能致害的特定違法違規信息內容,常見如誹謗、虛假廣告、兒童色情等。各國就數據安全和內容安全形成了有區別的治理和監管議題域。數據安全相關制度主要包含對數據控制者和基礎設施控制者提出的合規操作要求,從技術、流程、制度規范等方面追求控制泄露和惡意盜取等風險,并結合通知、賬號被盜用的保護等機制為受影響人群提供救濟。而內容規制則基于平臺運用的類型極為豐富的審核、發布和傳播限制、問責等機制,尋求控制致害信息的負面影響,緩解社會保護與表達自由、文化多元之間的張力。只是出于價值取向不同,各國在認定何種內容足夠有害、必須受到何種限制方面常有差異。
數據安全與內容安全的規制論域中各有部分牽涉國家安全。數據安全中的國家安全風險,主要涉及外國發起的間諜情報活動,以及結合數據對網絡基礎設施實施的攻擊。而內容安全中的國家安全風險主要涉及外國勢力有針對性的宣傳、煽動和滲透。上述國家安全風險傳統上隨時局變化起伏,但并非國內治理場域中的常規議題。然而在TikTok案中,可以明顯看出,數據安全與內容安全這兩大議題,在美國政府泛化國家安全的總體思路下已形成法律層面的相互綁定。在法律層面,這種綁定的后果直到TikTok事件才充分彰顯,即其導致美國憲法第一修正案對于媒體原本提供的保護在數字時代遭遇“短路”。傳統上,如果美國政府直接以特定媒體發表、傳播的內容為對象出手規制,會面臨極高的合憲性審查要求。但正如本案中美國最高法院選擇的論證策略一樣,如果政府以保護上升為國家安全的數據安全作為理由規制社交媒體,即使相關規制措施會對平臺承載的表達產生影響,也更難被認定違憲。根據學者的觀察,在國會支持下,美政府自2018年以來以國家安全名義干預跨境數據流動的權力持續擴張。而在當前法律體制下,數據安全規制實質上就是內容規制,卻又是更容易通過合憲審查的內容規制,政府預計可以數據安全而非內容安全的理由更多干預社交媒體平臺。
更一般而言,TikTok事件的法律紛爭突出展示了美國在人工智能治理領域中泛化國家安全的思維模式及其影響。這種泛化顯然不會止于社交媒體這種“老一代”人工智能的治理論域。至少就當下最熱的生成式人工智能而言,其相關技術的核心原理仍可理解為“基于數據生成內容”,因此政府出于內容安全擔憂要求管控數據、借助管控數據謀求內容規制的思路,定會延伸至此。甚至,由于生成式人工智能在結合推薦算法的基礎上,將進一步放大內容風險,因此美國政府將視生成式人工智能為更大的國家安全風險,其以內容安全為實際目標的管控措施也已超越了數據和算法,進一步達至算力層面。而在TikTok事件中,企業本已主動提出建立將全部數據存放在可信第三方、允許政府對算法和數據行為深入監控的安全方案,即所謂“德州計劃”(Project Texas),但仍不被美國政府接受。當美國這種所謂傳統科技自由大國在治理思維上轉向國家安全泛化,包括歐盟、英國、澳大利亞等在內的其他主要經濟體,在人工智能治理領域同樣可能擴張基于國家安全的投資經貿限制措施。
三
預防原則與禁令規制:歐盟《人工智能法》中的安全絕對化思維
歐盟于2024年推出了全球首部人工智能立法,其基于風險分級的立法模式獲得廣泛關注。有批評者認為《人工智能法》的風險分級本身科學性存疑,且缺乏對技術應用風險及其規制的必要場景化理解;有些認為其過于死板、缺乏足夠靈活性;另一些則反過來認為關注規制風險會導致保護權利不足。本文無意就《人工智能法》的立法科學性和政策合理性做完整評述,而希望將其中部分規定——尤其是第5條——作為樣本,分析其反映的安全絕對化思維。盡管歐盟決策者意識到發展自身人工智能產業的戰略重要性,但其在人工智能安全治理問題上延續了厭惡風險的預防原則進路。這種絕對化強調安全的思路,在應對社會情緒敘事方面或有價值,但可能過于輕易地放棄了在發展中尋求安全解法的機會。
(一)預防原則與“不可接受風險”應用禁令
在環境污染和食藥安全等傳統風險規制議題上,歐美之間一直被認為存在范式差異,前者奉行預防原則,后者則總體上采用成本收益分析,而何者更優則是學術界持續爭論的話題。人工智能安全成為風險規制新的核心主題后,二者間比較也變得愈發微妙。所謂“預防原則”,簡單說即在特定風險的存在和嚴重程度無法科學確證的情況下,規制者不能因“不確定有害”就不積極作為,而應推定其足夠危險并加以干預。成本收益分析則要求決策者在預防特定風險的安全收益未必大于相應預防措施自身成本時不要輕舉妄動,以避免導致更糟糕的未意圖后果。傳統討論中,成本收益分析經常被視為更“理性”,而基于預防原則的風險規制被認為是決策者受困于“損失厭惡”或其他認知偏誤的產物,甚至被稱為“恐懼之法”。
有關風險的社會敘事對于公共決策等社會行動一向都有很強的驅動能力。除了常見的傳言或“都市傳說”(urban myth)外,不少風險敘事是由專業精英或領域專家結合專業知識建構的,后者被經濟學家席勒稱為“專業敘事”,其在公共政策層面產生的影響可能更大。在人工智能領域,包括曾獲諾貝爾物理學獎的“機器學習之父”辛頓(Geoffrey Hinton)和商界巨頭馬斯克(Elon Reeve Musk)在內,許多科技業內人士近年都開始高調鼓吹人工智能毀滅人類文明的存亡風險(existential risk)。而根據席勒(Robert Shiller)的梳理,自二戰以來至少出現過四波有關人工智能將替代大量勞動的敘事,這些敘事調高了人們對經濟蕭條即將發生、自身即將失業的預期,由此均產生過抑制社會消費的效果。
當風險敘事足夠強勁時,其底層的事實基礎再薄弱,也有較大可能影響到制度和政策實踐。《人工智能法》以人工智能系統應用的風險高低,分出“最小風險”“有限風險”“高風險”和“不可接受的風險”四檔,對應匹配寬嚴有別的規制。盡管這種分級分類的結構總體看追求差異化監管,但進入結構內部,卻不難發現其體現出絕對化強調安全的思維:如果某種人工智能系統應用被立法者認為可能導致“不可接受的風險”,這些應用便在原則上被該法禁止。而根據《人工智能法》第5條,“被禁止的人工智能實踐”包括:(1)侵入潛意識、尋求操控或欺騙;(2)利用個人弱點;(3)社會評分;(4)犯罪風險評估;(5)無區別地爬取面部圖像;(6)情緒推斷;(7)基于生物特征進行分類;(8)公共場所實時遠程生物識別。上述應用當然有不難想象的風險,如可能危害個體安全、自由、權利。但除了(1)和(2)之外,前述實踐應被一律禁止,還是應在承認可能有應用價值的前提下被有效治理,并非無可爭議。
特別是,第5(1)(c)條所禁止的基于人工智能的“社會評分”(social scoring),之所以會被認為構成“不可接受的風險”,與歐盟立法者近年來迷信的關于社會信用體系建設的風險敘事脫不開干系。所謂“社會信用”(social credit),即基于傳統征信數據外的行為數據評估借款人違約風險的做法,本身是西方首創。而如荷蘭、奧地利、法國等國,在社會保障等公共管理領域早已有基于評分開展篩查審核的做法。但基于意識形態及有關西方社會自身嚴重種族歧視等問題的憂慮,歐盟建構出了有關“社會評分”的風險敘事。
雖然第5(1)(c)條中針對社會評分的規則在原則上被表述為“禁令”,但細讀條文就能發現,這一“禁令”到底禁止了什么并不清楚。該條號稱要禁止所有基于“社會行為”對個體或群體的評價或區別式評分,但“社會行為”概念極為寬泛,將與此相關的評分全部禁止不切實際。因此條文中又加上了諸多限定和豁免條款,指出被禁止的評分需要給人造成“不合比例”或“無法正當化”的負面影響,且不包括那些符合歐盟或成員國法律、為特定目的開展的評分實踐。上述限定中,沒有一條足夠確切,各有巨大解釋空間。而歐盟委員會在2025年2月發布的指南中,更承認該條的適用留有諸多“個案評估”空間,可能給許多實踐操作留出口子。
(二)風險敘事及其應對
《人工智能法》對“不可接受風險”作出姿態上“一刀切”式禁令,在客觀應對風險的意義上未必合理,也無法真正落地。《人工智能法》的立法者有意放棄了理性假設,轉而更多關注風險規制具有的社會溝通屬性。
理性主義規制假定只有以科學態度應對風險,才能真正有效管控風險;用科學方式向公眾提供信息,能夠幫助公眾校正認知;而只要理性政策取得最優規制效果,就能贏得人心,化解“非理性”敘事對社會認知和行動的影響。但在人工智能風險面前,上述假設是否成立值得疑問。首先,人工智能風險活動可能的傷害后果及傷害發生的概率均有較高不確定性,“理性”的風險認知在科學上有局限,甚至科學的態度本就意味著已有知識不足以支持選用某種特定應對策略。其次,風險本身不只是純粹的客觀事實,而是一個具有主體間性的概念。脫離社會共同體及其成員的主觀感知與情緒反應,我們并不能對“風險”及其影響實現全面理解。例如,針對某些病毒性傳染病,除了病毒“客觀”的生物屬性對其致病性和傳播速率有影響之外,公眾對相關疾病的認知、理解及情感反應本身也會影響病毒的實際傳播和致病后果。因此,將“非理性”的認知和情緒排除出風險規制的決策視野,可能意味著無法對癥下藥。再次,通過溝通、慎議確保社會認知遵循理性往往是過于理想化的指望,而在社交媒體建構的認知環境下,對誤導信息實現有效干預的政策難度會更大。最后,想要繞開溝通、純憑規制效果說服公眾,也沒有直觀上那么簡單。理性的風險規制追求權衡意義上的最優,這意味著必然有部分風險會落實為損失。如果傷害事件仍然發生,公眾可能接受“風險規制并未奏效、實際失敗”的敘事。而如果權威部門對公眾心理和情緒始終不聞不問,只是“悶頭開干”,那么敘事驅動下的公眾行為就可能成為理性風險規制展開并見效的障礙。
基于此,在人工智能風險成為重要社會話題時,如果監管者和政策制定者明確提出某種特定風險,例如歧視加劇風險、致害事故失控風險、大規模替代風險等,尚無確鑿科學依據,立法和監管不宜妄動,這即便在客觀意義上是理性的,但政策實效也較為可疑。這是因為,一旦有傷害事件實際發生,而公眾認為權威機關毫無作為,此時前者可能更多訴諸自發預防或防護,但這些行為要么無效,要么有效也因分散、缺乏協調而不如集中、有序、充分協調的風險應對更有效率,反而耗費更多社會資源。抑或,若權威決策者起初堅持理性克制監管的姿態,但當傷害事件發生后,公眾情緒反應過度強烈,決策者被逼無奈要作180度轉彎,這又會導致法律、政策和監管實踐波動過于劇烈。相比于穩定的嚴格監管姿態,波動過大的制度環境可能反而更不利于產業發展和創新投入。在波動過大的監管環境下,企業家會有動力追求在監管寬松時期以最快速度套現獲利,在政策轉向的前夜迅速離場。而這不但不利于創新,本身也孕育風險:產業主體會放棄長期主義,尋求把成本盡可能外部化,而不會致力于與公眾共同應對或分擔技術變革的風險。
四
兩種安全思維對治理的影響
人工智能等新興科技發展迅速,在任何給定時點,人們對其應用可能帶來的風險達成客觀、充分甚至完整的認知或理解都很困難。美歐在人工智能治理領域呈現出的“國家安全泛化”和“安全絕對化”兩種思維,各有其政治社會乃至文化基礎。而在充分理解其各自背后的驅動性社會訴求基礎上,我們還需要批判分析兩種安全思維對人工智能治理可能產生的影響。
(一)國家安全泛化與人工智能安全的困境
無論對于國內還是國際治理而言,泛化國家安全的思維模式恰恰不利于推進真正有效的人工智能安全治理。首先,國家安全泛化不利于國內治理體系建設。如前所述,人工智能相關的數據風險和內容風險,當前在美國日益被主要作為國家安全問題來處理。當國家安全泛化時,國內監管和治理難免投鼠忌器,各國均擔憂自身實施的監管過于嚴格,會限制其國內產業相對于他國產業的競爭力。特朗普第二次就任總統后立即廢止了拜登時期頒布的內容較為全面的人工智能安全行政令,這雖有黨派政治斗爭的出發點,但也明顯以為美國產業創新進一步松綁為落腳點。過度監管會限制技術進步,但以保護創新為名徹底放任風險也不合理。即使暫且擱置極端風險不論,新型人工智能應用的推廣本身也會導致數據安全和內容安全風險加劇,這些風險雖不必然與國家安全關聯,但本身足夠重要。例如,生成式人工智能在訓練和輸出環節都可能涉及對個人數據的處理,而其輸出的內容則可能包含有害信息。對于這些幾十年來網絡治理領域的頑疾,各國本可持續探索適當監管策略。但若受泛化國家安全的思維模式影響,將相關治理主要圍繞國家安全或外來威脅展開,可能會導致監管同時過嚴和過松。以TikTok事件為例,一方面,只因其有所謂國家安全風險,哪怕企業同意在“德州計劃”框架下接受美國政府嚴格監管,也仍被認定無法滿足“安全”要求;另一方面,可一般適用于美國老牌社交媒體平臺的聯邦數據隱私立法,多年來在游說阻力下無法出臺。
其次,國家安全泛化會阻礙必要的國際共識形成與合作開展。人工智能安全領域的許多議題固然有其文化性,但不意味著國家間無法形成任何共識。例如,就內容安全問題而言,各國對于惡意欺詐消費者的虛假信息的有害性和規制必要性就可以有共識。再如,各國對成年人是否可以接觸色情內容并無共識,但對于禁止兒童色情,乃至禁止未成年人接觸色情制品,在較大范圍內有共識。國家間需要通過溝通和對話識別、促成這類共識,并在相關共識基礎上形成合作。但囿于國家安全泛化的思維模式,對零和博弈的渲染遮蔽了這些共通性。2025年7月,特朗普政府發布了新的白宮人工智能政策,其開篇即將政策核心宗旨定調為贏得針對中國的人工智能競爭,這使得相關框架下人們很難尋找、開拓必要的合作空間。
而新型人工智能技術及其應用的能力日益強大,且模型開源,這使得有致害可能的人工智能技術能力的擴散存在失控風險。與核擴散失控風險所明確對應的共同毀滅性后果相比,人工智能應用能力擴散的積極和消極后果很難全面預估。競爭中的各國均有憑借技術優勢壓倒對方而同時確保自身毫發無傷的指望,這使得各國間更可能陷入安全競爭的困境。在生成式人工智能廣泛應用于社交媒體內容生產后,可預計美國乃至更多國家都會進一步尋求限制跨國數字媒體平臺在本國運營。同時,“進攻就是最好的防守”,為爭奪意識形態影響力優勢,各國也將有動力投入更多資源開發基于人工智能的高強度認知操控技術。
(二)安全絕對化思維的風險
雖然歐盟《人工智能法》所體現出的缺乏靈活性的絕對化安全思維并非全然不理性,但追求以嚴格監管姿態回應社會情緒,也可能引發至少兩類未意圖后果。
第一,由于“確認偏誤”(confirmation bias)的作用,嚴厲的法律和政策表態,反而可能強化既有風險敘事對公眾認知和情緒的影響。所謂“確認偏誤”,是指人們通常會傾向于用與其既有信念一致的方式搜尋或解讀新的信息。若權威機關對風險敘事作積極迎合姿態,公眾固然可能因看到前者與其認知一致而感到寬慰,卻也可能認為這種姿態恰恰印證了風險敘事的可信性。在近年有關算法和人工智能的公共討論中,相關風險敘事時常伴隨或引發人們的負面情緒。例如有關人臉識別、算法公共決策、自動駕駛、智能診療等應用可能帶來嚴重風險的討論,往往都有某種“人機雙標”(human-machine double standard)傾向,即在相應領域中人類行為同樣有致害風險,公眾甚至專家卻對換用機器后可能導致的更小風險格外看重并抵觸。根據研究者梳理,個體心理傾向、群體認知習慣和特定任務屬性等因素都會導致或加劇社會話語與行動層面的“算法厭惡”。人工智能相關風險敘事同樣會加劇“算法厭惡”。如不能有效、系統、全面對待與這些認知相互強化的風險敘事,嚴厲的監管姿態可能進一步強化認知偏誤。
第二,在以立法形式做出嚴厲治理表態后,決策者或許同時寄望由監管或司法機關借助實施細則、裁判規則等微觀制度工具,為人工智能研發和應用活動提供相對寬松也更可預期的規制環境,構造“音效隔離”。但這樣的制度結構會為監管俘獲制造條件。經驗意義上,風險規制從來都是利益集團密集投入資源尋求政策影響的領域,游說動力、游說行動和游說成果的存在,本不應令人感到意外。規制機構的中立性和專業性本應有助于抑制監管俘獲,但若這兩點本身得不到有效保證,且監管規則制定和執法開展的過程透明度不足,特別利益尋求俘獲公器的機會就相當可觀。即便事實上不存在俘獲,一旦“音效隔離”失敗,民眾發覺立法嚴厲表態之下監管和司法有意變通,這同樣可能推定這種變通實為監管俘獲的結果。
五
思考人工智能安全治理的未來
以前述歐美思維模式為鑒,我國應基于充分的制度自信,思考、探求形成更加務實、有效、符合人類命運共同體長遠利益的人工智能安全治理路徑。
(一)堅持總體安全觀
有效防范、應對人工智能技術及其應用可能帶來的風險,包括國家安全風險,是我國人工智能治理的重要目標。相對于其他各類安全利益,國家安全具有基礎性地位。新時代,我國國家安全工作以總體國家安全觀作為科學指引。在人工智能治理領域,堅持總體國家安全觀意味著我們應充分認識到國際斗爭的現實性與嚴峻性,警惕外部勢力破壞、遏制我國在人工智能領域實現正當發展利益的企圖,并關注人工智能技術被用于破壞我國政權安全、制度安全和意識形態安全等安全利益的風險。與此同時,我國應在內容、數據等常規安全治理場景中建構科學有效、有針對性的制度和政策。我國向來堅持“互聯網不是法外之地”,強調對數字空間各類風險的常態化治理,既持續關注國家安全,又同時關照發展利益。在人工智能技術興起后,這樣的治理路徑得到了持續。無論是針對推薦算法,還是生成式人工智能,我國監管的治理路徑都是在堅持社會保護的基礎上,以具體應用場景和行為為指向,有的放矢,力求提供穩定監管預期,避免在完全放任和過度限制之間劇烈搖擺。長期上看,我國應繼續堅持這一治理思路。
(二)把握社會情緒、應對風險認知
歐盟以《人工智能法》堅決對特定應用加以“封殺”,首次立法就以禁令為起點,可能導致治理部門不再有動力投入資源,從更具專業性的角度思考建構更合理、平衡、務實的治理方案。
以此為鑒,我國人工智能治理應堅持以科學精神為基礎的“包容審慎”,決策部門尤其應避免被風險敘事及其誘發的情緒“帶節奏”。隨著對風險主體間性的理解不斷深入,風險規制經驗不斷積累,以及規制工具箱不斷豐富,在面對特定人工智能風險敘事時,治理者也可考慮以積極能動的姿態關照、疏導社會心理,回應、安撫公眾情緒。例如,某些在外觀或公眾感知層面看起來相當嚴厲的制度,如對人工智能應用侵權適用無過錯責任,其給產業界造成的實際負擔未必沉重。如果法律和政策在應對風險時采用從嚴姿態,就應對受風險敘事影響的社會心理進行疏導,并同時借助特定制度技術避免在實質層面抑制創新和發展,這無疑有助于提供穩定預期、有利于創新和發展的監管環境。但這種“兩全其美”是否可能達成,取決于治理者能否善用適當法律技術,并理解其局限和風險。一個或可參照的先例是,《通用數據保護條例》雖在制定時被廣泛宣傳為“史上最嚴”的立法,但就其生效后幾年的實際執行來看,由于成員國分散實施的執法體制,企業享有一定的挑選管轄地的空間,這使得該法的執法時常被數據隱私業內人員批評不夠嚴格、一致。但與此同時,有調查發現,法律生效后,盡管執行力度不夠強,公眾卻似乎僅由于立法的存在而感到更放心了。這一經驗有無可能遷移到人工智能治理,值得關注。
(三)共識積累與單邊立信
人工智能治理需要加強國際對話、積累共識。例如在未成年人保護議題上,各國對相關安全利益的認知有較大重疊;像澳大利亞等西方國家,甚至已采取了比中國更為嚴格的限制措施。在這類議題上,我國應積極與各國開展交流,讓他國了解我國的理念和經驗。而我國在對內開展人工智能治理體系建設和監管實踐的同時,應有意識地對國內治理議題進行充分細致梳理,使其他國家能夠更清晰地看到我國在人工智能安全領域的關切,特別是看到其中與他國關切能夠形成重疊和共識的范疇。在2023年《布萊切利宣言》(The Bletchley Declaration)中,包括中國在內的29國原則達成的一點共識即應致力于識別有關人工智能安全風險的“共享關切”。
基于此,盡管目前我國進行全面、橫向統合各類場景的人工智能立法,在政策技術意義上仍需時日,但立法的一個可能價值在于創造有助于中國更深入參與人工智能安全治理國際合作的機制,向外界提供聚焦了解中國人工智能治理關切的窗口。其他國家可據此更有理由相信,中國確實將人工智能視為“造福人類的國際公共產品”,并正以負責任的態度著手應對人類共同面臨的安全挑戰。此外,堅持在人工智能領域支持開源,維護國內科技界與國外技術界的溝通交流管道,對于提升中國在人工智能安全治理領域的可信度同樣至關重要。當前有關人工智能發展的國際合作強調科技發展在全球范圍內的包容、公正。我國2023年發出的《全球人工智能治理倡議》已明確提出“鼓勵全球共同推動人工智能健康發展,共享人工智能知識成果,開源人工智能技術”,此即對中國對人工智能發展秉持開放性的重要立場。
六
結語
在人工智能治理領域,中國已不再是法律移植的目的地,而是比較法模版的原產地。這既是中國自身經濟與科技實力支撐的客觀事實,也為國際社會所期待。即便在如今的美歐輿論中,主張對中國人工智能治理經驗更認真對待甚至參考借鑒的論調也已經相當常見。
我國思考、探索符合本國和全人類長遠利益的人工智能治理方案是一項高度復雜的工程,無法一蹴而就,也不能埋頭獨行。對于我國而言,持續關注美歐經驗依然具有重要價值。但這不僅意味著要以批判的視角審視其具體實踐,也要把握、提煉其實踐背后的思維模式,并深入剖析其后果。以此種比較法工作為基礎,有助于生成具有自主性的治理知識和思路,為人工智能治理提供中國智慧、中國方案。
-向上滑動,查看完整目錄-
《環球法律評論》2025年第6期目錄
【馬克思主義法學專欄】
1.民營企業的刑法平等保護體系構建
——以《民營經濟促進法》為背景
楊柳(5)
【主題研討:人工智能治理的思路與規則】
2.人工智能治理的兩種安全思維:批判與超越
戴昕(22)
3.大型語言模型生成虛假信息風險的法律治理
蘇宇(36)
4.生成式人工智能搜索服務提供者侵權免責制度
姚志偉(53)
【理論前沿】
5.職場性騷擾中用人單位的侵權責任
楊嘉祺(69)
6.對待給付判決及其執行的模式選擇
劉哲瑋(85)
7.禁令程序作為網絡侵權糾紛的訴前獨立信息披露程序
朱禹臣(102)
8.數字時代濫用共同市場支配地位的制度反思與完善
胥智仁(119)
9.論離線權的必要、限度與實現
王倩(134)
10.“司法鑒定法”的制定邏輯及其立法模式
陳如超(151)
11.電子數據完整性的功能擴張及其反思
唐云陽(167)
12.數字身份認證的法治化構建
李丹(184)
【國際法研究】
13.國際經貿條約治理新范式:軟約束規則的興起與實施
張耀元(200)
《環球法律評論》2025年總目錄
(218)
《環球法律評論》目前的宗旨是:比較研究中國法與外國法以及各國法之間的利弊得失,優劣高下,以便同仁悟取舍之正道,得法意之真髓。本刊既倡導宏觀的、體系的、基礎理論的比較研究,也注重微觀的、個別的、具體的法律制度的比較研究。我們不僅要用中國法的眼光透視外國法,也要用外國法的眼光來透視中國法。改革開放以來,中國的國際地位不斷提高,國際影響力與日俱增,國際話語權越來越大。因此本刊將更加重視國際法。相應地,我們開辟了“主題研討”、“理論前沿”、“環球評論”、“國際法研究”等欄目。經過數年努力,本刊已成為以研究外國法、比較法、國際法為重點和特色的法學核心期刊。洋為中用,是本刊的出發點和歸屬。我們研究比較法和外國法是為了中國法學和法律的發展。在重點研究外國法的同時,本刊將更加關注中國法學和法律的重點問題和特色問題。本刊的改進與發展,體現了與時俱進、順應潮流與需求的精神。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 郭晴晴??????
審核人員 | 張文碩 韓爽
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.