【副標(biāo)題】產(chǎn)品責(zé)任、倫理價(jià)值與國家安全
【作者】萬方(北京外國語大學(xué)法學(xué)院教授 )
【來源】 北大法寶法學(xué)期刊庫 《中外法學(xué)》2025年第6期 (文末附本期期刊目錄) 。因篇幅較長,已略去原文注釋。
![]()
內(nèi)容提要:當(dāng)前人工智能國際治理主要涵蓋產(chǎn)品責(zé)任、倫理價(jià)值與國家安全三個(gè)目標(biāo)維度。歐盟、中國和美國在人工智能國際治理中分別代表了個(gè)體權(quán)利主導(dǎo)、平衡多元目標(biāo)與國家安全主導(dǎo)的三種典型路徑,不同路徑下三個(gè)目標(biāo)維度的追求位階與制度側(cè)重存在顯著差異。全球人工智能治理應(yīng)以上述三個(gè)目標(biāo)維度為核心,通過制度銜接與規(guī)則對(duì)話,構(gòu)建層次分明、協(xié)調(diào)有序的治理體系。具體而言,應(yīng)以共同倫理為前提,從產(chǎn)品責(zé)任與系統(tǒng)安全入手,通過技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)則與合規(guī)指引形成基礎(chǔ)性共識(shí)。在此基礎(chǔ)上,逐步推動(dòng)權(quán)利義務(wù)具體化的區(qū)域性倫理協(xié)議和軟法工具的形成,培育更高層次的價(jià)值認(rèn)同與制度合作框架。而在涉及國家安全的議題上,則需在人工智能軍民兩用場(chǎng)景不斷深化的背景下,探索建立跨國危機(jī)管理與風(fēng)險(xiǎn)溝通機(jī)制,以防止因過度強(qiáng)調(diào)人工智能軍事化或技術(shù)封鎖而造成國際共識(shí)受阻,從而實(shí)現(xiàn)以安全為底線、以合作為導(dǎo)向的全球人工智能國際治理秩序。
關(guān)鍵詞:人工智能國際治理;產(chǎn)品責(zé)任;倫理價(jià)值;國家安全
目次 一、人工智能的責(zé)任體系為產(chǎn)品責(zé)任的邏輯延伸 二、倫理共識(shí)與損害界定 三、軍民兩用背景下的人工智能安全治理 四、人工智能國際治理的進(jìn)路分析 五、完善我國的治理路徑
人工智能治理并非孤立的法律議題,而是由技術(shù)、倫理與安全等多重要素交織形成的綜合性制度體系。從產(chǎn)品責(zé)任、倫理價(jià)值與國家安全三重維度展開,可揭示出各維度之間由微觀到宏觀、由個(gè)體到整體的邏輯遞進(jìn)關(guān)系。產(chǎn)品責(zé)任體現(xiàn)了人工智能風(fēng)險(xiǎn)治理的基礎(chǔ)層面,其核心在于通過安全標(biāo)準(zhǔn)與法律歸責(zé)機(jī)制確立制度底線;倫理價(jià)值進(jìn)一步拓展治理的規(guī)范內(nèi)涵,在權(quán)利保障與社會(huì)正當(dāng)性層面回應(yīng)技術(shù)應(yīng)用帶來的結(jié)構(gòu)性影響;國家安全則標(biāo)志著人工智能治理從社會(huì)規(guī)范層面向國家戰(zhàn)略層面的延伸,關(guān)切已超越個(gè)體與市場(chǎng),指向國家整體安全體系的穩(wěn)固與長遠(yuǎn)發(fā)展。三者既相互關(guān)聯(lián),又在層級(jí)上相互銜接,共同構(gòu)成了人工智能國際治理的制度邏輯與價(jià)值框架。本文關(guān)注的核心問題在于如何在這三重目標(biāo)維度之間實(shí)現(xiàn)制度承接與功能互補(bǔ),以形成兼具規(guī)范性、協(xié)調(diào)性與可操作性的治理路徑。通過這一主線的貫通,本文擬在比較法研究的基礎(chǔ)上,構(gòu)建人工智能國際治理的整體結(jié)構(gòu),并進(jìn)一步闡釋中國方案的制度價(jià)值與理論意涵。
一
人工智能的責(zé)任體系為產(chǎn)品責(zé)任的邏輯延伸
本文所稱的人工智能治理主要指在法律規(guī)制體系中通過責(zé)任制度、倫理規(guī)范與安全機(jī)制實(shí)現(xiàn)風(fēng)險(xiǎn)控制與公共利益保護(hù)的整體制度安排。其中,產(chǎn)品責(zé)任是人工智能治理的核心路徑之一,體現(xiàn)為將人工智能系統(tǒng)視為特殊產(chǎn)品并通過責(zé)任規(guī)則約束其安全與可預(yù)期性。產(chǎn)品責(zé)任的核心是保障消費(fèi)者及相關(guān)主體的人身及財(cái)產(chǎn)安全。從這個(gè)意義上來說,產(chǎn)品責(zé)任對(duì)保護(hù)個(gè)人信息、數(shù)據(jù)及系統(tǒng)安全的規(guī)制目標(biāo)與人工智能治理的底層性要求完全契合。各國人工智能的責(zé)任體系也基本為各自產(chǎn)品責(zé)任的邏輯延伸。這一邏輯的延伸不僅體現(xiàn)在對(duì)產(chǎn)品的界定標(biāo)準(zhǔn)上,還需要綜合考慮主體、歸責(zé)等產(chǎn)品責(zé)任的其他要件的適用性。
(一)產(chǎn)品責(zé)任在人工智能領(lǐng)域的實(shí)踐
在人工智能治理的整體框架下,責(zé)任體系構(gòu)成基本路徑,而產(chǎn)品責(zé)任則是實(shí)現(xiàn)治理目標(biāo)的核心機(jī)制。由于人工智能產(chǎn)品兼具高度復(fù)雜性與不可預(yù)測(cè)性,其潛在風(fēng)險(xiǎn)不僅涉及傳統(tǒng)意義的人身、財(cái)產(chǎn)安全,還延伸至數(shù)據(jù)安全、隱私保護(hù)、算法歧視等新型權(quán)益領(lǐng)域。不同法域在制度設(shè)計(jì)、責(zé)任歸屬、風(fēng)險(xiǎn)防控等方面形成了各具特色的治理模式。值得注意的是,在傳統(tǒng)法律框架中產(chǎn)品責(zé)任與服務(wù)責(zé)任在對(duì)象、歸責(zé)基礎(chǔ)及責(zé)任構(gòu)成上具有明確區(qū)分。然而,人工智能技術(shù)的嵌入性和可更新性模糊了二者界限:算法既可能作為產(chǎn)品的一部分被納入產(chǎn)品責(zé)任,也可能以獨(dú)立服務(wù)的形式承擔(dān)相應(yīng)的注意義務(wù)。因此,人工智能治理需要在產(chǎn)品責(zé)任的結(jié)構(gòu)內(nèi)吸納部分服務(wù)責(zé)任因素,形成一種復(fù)合型責(zé)任結(jié)構(gòu)。
歐盟的《人工智能法案》(Artificial Intelligence Act)遵循傳統(tǒng)路徑,根據(jù)人工智產(chǎn)品及服務(wù)的類型對(duì)其進(jìn)行風(fēng)險(xiǎn)分級(jí)規(guī)制。其核心思路是將人工智能系統(tǒng)視為具有高度技術(shù)含量的產(chǎn)品,依其在特定使用場(chǎng)景中可能引發(fā)的危害程度,劃分為不可接受風(fēng)險(xiǎn)、高風(fēng)險(xiǎn)、有限風(fēng)險(xiǎn)以及最低風(fēng)險(xiǎn)四個(gè)等級(jí),并據(jù)此施加相應(yīng)的合規(guī)義務(wù)。人工智能作為嵌入式的軟件系統(tǒng),其所引發(fā)的風(fēng)險(xiǎn)多與產(chǎn)品設(shè)計(jì)缺陷、功能不當(dāng)或信息不對(duì)稱密切相關(guān),因此適用于以產(chǎn)品安全為核心的傳統(tǒng)規(guī)范架構(gòu)。
美國則是強(qiáng)調(diào)從透明、公平和問責(zé)等消費(fèi)者視角出發(fā),將人工智能治理的相關(guān)規(guī)則嵌入到現(xiàn)有消費(fèi)者保護(hù)法律體系之中。美國的消費(fèi)者保護(hù)制度的基本特征為去中心化監(jiān)管與事后責(zé)任制,主要體現(xiàn)在以行業(yè)自律性的產(chǎn)品安全標(biāo)準(zhǔn)為治理抓手。只要企業(yè)遵循非強(qiáng)制性的安全標(biāo)準(zhǔn),則在司法實(shí)踐中可被視為已采取合理行為或盡到了相關(guān)的注意義務(wù)。此種規(guī)制突出權(quán)利導(dǎo)向,更強(qiáng)調(diào)市場(chǎng)自由與個(gè)人責(zé)任的適應(yīng)性。在對(duì)金融領(lǐng)域的規(guī)制中,人工智能系統(tǒng)被作為服務(wù)或產(chǎn)品的新形態(tài),延續(xù)了信息披露、誤導(dǎo)性陳述與公平交易的傳統(tǒng)底層要求。從實(shí)踐效果來看,非強(qiáng)制性規(guī)制手段對(duì)系統(tǒng)性技術(shù)風(fēng)險(xiǎn)防控較弱,而對(duì)標(biāo)準(zhǔn)與合規(guī)的高要求又將社會(huì)成本在一定程度上轉(zhuǎn)嫁到司法成本之上。
我國當(dāng)前的人工智能治理方案也與產(chǎn)品責(zé)任體系呈現(xiàn)高度相似的結(jié)構(gòu)性特征,兩者均以立法與行政規(guī)范性文件為總體框架進(jìn)行指導(dǎo)并輔之以相關(guān)的國家標(biāo)準(zhǔn)作為重要參考。例如,《網(wǎng)絡(luò)安全法》《數(shù)據(jù)安全法》及《個(gè)人信息保護(hù)法》分別從不同維度對(duì)關(guān)鍵信息基礎(chǔ)設(shè)施、數(shù)據(jù)安全和個(gè)人信息安全等核心問題作出規(guī)制,這在功能上與《產(chǎn)品質(zhì)量法》《消費(fèi)者權(quán)益保護(hù)法》等在傳統(tǒng)產(chǎn)品責(zé)任領(lǐng)域的效果定位趨同。傳統(tǒng)產(chǎn)品責(zé)任通過立法界定制造者、銷售者、使用者等各環(huán)節(jié)的安全保障義務(wù),人工智能治理則是通過立法、行政規(guī)范和技術(shù)標(biāo)準(zhǔn)構(gòu)建多元的責(zé)任框架,從而實(shí)現(xiàn)對(duì)人工智能生成產(chǎn)品及服務(wù)全生命周期的規(guī)制。
在人工智能治理領(lǐng)域,尤其面對(duì)生成式人工智能技術(shù)的快速擴(kuò)張與潛在風(fēng)險(xiǎn),單靠立法和標(biāo)準(zhǔn)文件往往難以實(shí)現(xiàn)全面、動(dòng)態(tài)的管控,而必須輔之以強(qiáng)有力的行政監(jiān)管體系。
常態(tài)化行政監(jiān)管在人工智能治理中具有前瞻性和靈活性的制度優(yōu)勢(shì)。立法與標(biāo)準(zhǔn)制定往往需要較長周期,而生成式人工智能行業(yè)的技術(shù)迭代和應(yīng)用擴(kuò)散卻極為迅速,深度合成、人工智能幻覺等問題常在立法尚未細(xì)化前就已形成一定的社會(huì)影響。行政監(jiān)管通過開展專項(xiàng)行動(dòng)、制定行業(yè)指引、發(fā)布風(fēng)險(xiǎn)提示等方式,能夠快速響應(yīng)新興風(fēng)險(xiǎn)、填補(bǔ)制度空白、引導(dǎo)行業(yè)調(diào)整,在法律與標(biāo)準(zhǔn)未能即時(shí)應(yīng)對(duì)時(shí),為社會(huì)提供第一道防線,而敏捷治理的理念也能有效減輕趨于僵化的風(fēng)險(xiǎn)規(guī)制路徑帶來的負(fù)面影響。
(二)產(chǎn)品責(zé)任無法完全適用于人工智能治理
雖然各國目前普遍的實(shí)踐仍然傾向于延用傳統(tǒng)的產(chǎn)品責(zé)任體系對(duì)人工智能責(zé)任進(jìn)行規(guī)制,甚至有些國家直接以傳統(tǒng)的消費(fèi)者保護(hù)部門來制訂相應(yīng)的法規(guī),但實(shí)際上人工智能領(lǐng)域的問題并非能完全被產(chǎn)品責(zé)任體系所覆蓋。以傳統(tǒng)侵權(quán)體系判斷人工智能產(chǎn)品及服務(wù)是否需要承擔(dān)法律責(zé)任需要首先要對(duì)以下問題進(jìn)行回應(yīng):
學(xué)界對(duì)于人工智能的主體資格問題尚未有定論,那么對(duì)于責(zé)任認(rèn)定之難就不言而喻。人工智能的產(chǎn)業(yè)鏈復(fù)雜,涉及開發(fā)者、部署者、用戶、平臺(tái)等多方,相比傳統(tǒng)責(zé)任體系而言,人工智能的責(zé)任認(rèn)定方式更為復(fù)雜,且更加依賴技術(shù)標(biāo)準(zhǔn)作為責(zé)任的承擔(dān)依據(jù)。人工智能治理的難度大,不僅源于其主體復(fù)雜,還由于主體之間的行為可能相互疊加產(chǎn)生不可控的風(fēng)險(xiǎn),而往往這些風(fēng)險(xiǎn)難以在第一時(shí)間內(nèi)被洞察。例如,未參加生成式人工智能原始模型開發(fā)的下游開發(fā)者可能會(huì)將原始模型調(diào)整后再整合到其他軟件系統(tǒng)。由于雙方均對(duì)整體情況不明,或?qū)@著增加軟件的錯(cuò)誤及失控風(fēng)險(xiǎn)。對(duì)于因人工智能而造成的損害還存在難以認(rèn)定因果關(guān)系的難題。算法“可解釋”與結(jié)果“可信任”之間的唯一關(guān)系鏈條已被發(fā)散。人工智能系統(tǒng)的高度復(fù)雜性與算法黑箱效應(yīng),使得責(zé)任認(rèn)定中的因果關(guān)系難以明確。按照傳統(tǒng)侵權(quán)法中的條件說、相當(dāng)因果關(guān)系理論,受害者需要證明加害行為與損害后果之間存在明確的因果鏈條。
歸責(zé)原則的適用也存在大量爭(zhēng)議。在傳統(tǒng)的產(chǎn)品責(zé)任風(fēng)險(xiǎn)規(guī)制體系之中,核心的邏輯是通過立法對(duì)產(chǎn)品各環(huán)節(jié)的隱患的消除。從侵權(quán)責(zé)任的角度而言,人工智能的自主性和不透明性可能會(huì)導(dǎo)致適用傳統(tǒng)侵權(quán)法歸責(zé)困難。傳統(tǒng)無過錯(cuò)責(zé)任的適用以存在缺陷為前提,但人工智能的損害結(jié)果往往難以歸因于產(chǎn)品本身的缺陷,而可能源于其自主學(xué)習(xí)過程中的意外行為。這使得缺陷的界定變得模糊,對(duì)無過錯(cuò)責(zé)任的適用空間提出了新的挑戰(zhàn)和限制。人工智能軟件與操作系統(tǒng)中的程序錯(cuò)誤難以避免,無法從賦予產(chǎn)品生產(chǎn)者責(zé)任的角度來避免損害的發(fā)生。另一方面,將人工智能納入無過錯(cuò)責(zé)任的范疇則又會(huì)使得提供信息類服務(wù)的人工智能陷入發(fā)展困境。因此有學(xué)者建議,在人工智能提供的信息類服務(wù)中應(yīng)當(dāng)對(duì)其適用合同責(zé)任、侵權(quán)法上的過錯(cuò)責(zé)任以及基于政府或行業(yè)管理的倫理責(zé)任,而對(duì)人工智能的終端產(chǎn)品適用無過錯(cuò)責(zé)任的歸責(zé)原則。隨著人工智能產(chǎn)業(yè)形態(tài)的不斷變更,更多類型的業(yè)務(wù)形態(tài)逐步展現(xiàn),難以期待事先對(duì)不同類型的人工智能產(chǎn)品固化地適用某一種侵權(quán)責(zé)任的歸責(zé)原則。
最后,發(fā)展風(fēng)險(xiǎn)抗辯存在使責(zé)任制度全然落空的風(fēng)險(xiǎn)。我國的《產(chǎn)品質(zhì)量法》第41條可被視為我國引入發(fā)展風(fēng)險(xiǎn)抗辯的例證。發(fā)展風(fēng)險(xiǎn)抗辯體現(xiàn)了法律在歸責(zé)體系中對(duì)技術(shù)進(jìn)步與創(chuàng)新的平衡考量。制造商或開發(fā)者應(yīng)對(duì)已知或可預(yù)見的風(fēng)險(xiǎn)承擔(dān)責(zé)任,但不應(yīng)為當(dāng)時(shí)客觀無法認(rèn)知或預(yù)防的風(fēng)險(xiǎn)負(fù)責(zé)。在嚴(yán)格的無過錯(cuò)產(chǎn)品責(zé)任體系之下引入發(fā)展風(fēng)險(xiǎn)抗辯不僅有助于合理分配創(chuàng)新過程中不可避免的風(fēng)險(xiǎn),也能防止因過度歸責(zé)而扼殺企業(yè)科技創(chuàng)新的積極性。但是,該抗辯在人工智能的背景下容易產(chǎn)生新問題。人工智能技術(shù)的復(fù)雜性和算法的不透明性可能增加未知風(fēng)險(xiǎn)的范圍,使制造商、開發(fā)者更頻繁地訴諸此類抗辯。人工智能技術(shù)的可自我進(jìn)化特征又模糊了產(chǎn)品投放市場(chǎng)的時(shí)間節(jié)點(diǎn)。傳統(tǒng)意義上以時(shí)間節(jié)點(diǎn)為界的抗辯條件,在人工智能自主學(xué)習(xí)與持續(xù)更新中面臨重大挑戰(zhàn)。對(duì)此有學(xué)者主張,以是否構(gòu)成高風(fēng)險(xiǎn)人工智能系統(tǒng)進(jìn)行分類來決定在該領(lǐng)域內(nèi)發(fā)展風(fēng)險(xiǎn)抗辯的適用,即若屬于高風(fēng)險(xiǎn)類型則不適用該抗辯。即使以上問題均能達(dá)成統(tǒng)一的學(xué)術(shù)共識(shí),判斷相應(yīng)主體是否應(yīng)當(dāng)承擔(dān)責(zé)任也并不只是一個(gè)純粹關(guān)乎法律技術(shù)的問題。還存在一個(gè)前置性的問題尚未解決:對(duì)人工智能的倫理認(rèn)知是界定損害的前提,而目前并未形成對(duì)人工智能倫理邊界的共識(shí)性認(rèn)知。責(zé)任體系的進(jìn)一步完善,必然依賴于倫理層面的價(jià)值共識(shí)。只有在明確何為損害的倫理框架下,法律責(zé)任的邊界才能被清晰劃定。因此,人工智能治理的邏輯在此由制度層面的產(chǎn)品責(zé)任延伸至價(jià)值層面的倫理治理。
二
倫理共識(shí)與損害界定
人工智能風(fēng)險(xiǎn)不僅具有動(dòng)態(tài)性和不可預(yù)測(cè)性,更因其深度嵌入人類社會(huì)網(wǎng)絡(luò)而呈現(xiàn)出顯著的倫理化特征。人工智能的倫理治理旨在應(yīng)對(duì)人工智能技術(shù)在研發(fā)、部署與應(yīng)用過程中可能引發(fā)的倫理問題與社會(huì)風(fēng)險(xiǎn),其核心在于確保人類基本權(quán)利得到保障,同時(shí)確保人工智能的發(fā)展方向符合社會(huì)公共利益。倫理主要聚焦于價(jià)值引導(dǎo)、規(guī)范約束與道德原則的確立。倫理治理看似是抽象的獨(dú)立問題,實(shí)際上既可以借由技術(shù)標(biāo)準(zhǔn)轉(zhuǎn)為產(chǎn)品或技術(shù)的安全規(guī)制體系,也可能因其存在的意識(shí)形態(tài)性落入泛化的國家安全領(lǐng)域成為政治問題。目前之所以未能在人工智能倫理治理上全面達(dá)成共識(shí),主要原因在于以下幾個(gè)方面:
(一)單一倫理價(jià)值需程序正義加結(jié)果公平雙重制度保障方可實(shí)現(xiàn)
在人工智能倫理框架中,公平和非歧視是公認(rèn)的核心價(jià)值之一。聯(lián)合國教科文組織《人工智能倫理問題建議書》中指出人工智能技術(shù)可能內(nèi)嵌并加劇偏見,可能導(dǎo)致歧視、不平等、數(shù)字鴻溝和排斥,據(jù)此應(yīng)當(dāng)對(duì)人工智能技術(shù)進(jìn)行規(guī)范性評(píng)估和指導(dǎo),以人的尊嚴(yán)、福祉和防止損害為導(dǎo)向,并始終以科技倫理為基礎(chǔ)。人們對(duì)于是否受到了歧視和不公平的待遇往往基于自身的感知,并以一定的不利后果作為受到實(shí)際損害的佐證。
在傳統(tǒng)侵權(quán)法領(lǐng)域中“損害”往往能被更為清晰地界定為民事權(quán)益遭受了侵害的客觀事實(shí),指任何物質(zhì)的或精神的利益的非自愿的喪失,如財(cái)產(chǎn)減少、人身傷害、權(quán)利被剝奪等。但是,在人工智能領(lǐng)域,許多風(fēng)險(xiǎn)并非直接產(chǎn)生后果,而是涉及制度性、結(jié)構(gòu)性或感知性的傷害,必須通過倫理框架來界定其是否構(gòu)成“損害”。當(dāng)事人感受到的不公正及歧視待遇是否能進(jìn)入法律系統(tǒng)被評(píng)價(jià)且成為責(zé)任承擔(dān)的依據(jù),是倫理治理需要回應(yīng)的重要課題。此時(shí),倫理標(biāo)準(zhǔn)在此先行于法律判斷,為“什么構(gòu)成損害”提供了價(jià)值尺度。
雖然目前我國諸如《憲法》《勞動(dòng)法》《婦女權(quán)益保障法》等多部立法將公平和非歧視的理念納入其中,但是對(duì)于個(gè)體而言,在使用人工智能技術(shù)的場(chǎng)景之下判斷某種情況是否為因歧視造成損害仍然存在兩類困難。第一是純粹的技術(shù)原因。如前文所述,侵權(quán)責(zé)任法要求被侵權(quán)人對(duì)因果關(guān)系要件進(jìn)行明確的證明,但人工智能歧視導(dǎo)致的損害往往屬于結(jié)構(gòu)性、隱蔽性的原因,使得個(gè)體難以證明自己是具體受害人。第二類是因?yàn)椴糠植焕蠊麑儆诓焕蠊母兄⒎乔趾χ黧w權(quán)益的結(jié)果。在美國國家標(biāo)準(zhǔn)與技術(shù)研究院(National Institute of Standards and Technology)《人工智能風(fēng)險(xiǎn)分類草案》(Draft-Taxonomy of AI Risk)中,將人工智能系統(tǒng)應(yīng)用中的感知方式列為第二類風(fēng)險(xiǎn)。所謂“感知方式”是指人類對(duì)模型的心理表征,包括模型輸出是否足以用于合規(guī)性評(píng)估(透明度)、模型運(yùn)作是否易于理解(可解釋性),以及模型是否輸出可以用于作出有意義決策的信息(可理解性)。相對(duì)于其他類型的風(fēng)險(xiǎn)而言,此類風(fēng)險(xiǎn)更難以完全通過標(biāo)準(zhǔn)化手段進(jìn)行衡量,有時(shí),雖然客觀主體的相應(yīng)民事權(quán)益確實(shí)得到了克減,但并不能直接得出該種不利后果為法律上的損害并對(duì)相應(yīng)的主體賦予法律責(zé)任。從橫向來看,錄入人工智能系統(tǒng)的數(shù)據(jù)類型越多,越容易帶入某些敏感屬性的變量,從而間接導(dǎo)致歧視的產(chǎn)生。從縱向而言,歷史數(shù)據(jù)往往已經(jīng)沉積了許多社會(huì)偏見。生成式人工智能應(yīng)用的過程,實(shí)質(zhì)上是對(duì)過往人類社會(huì)模式的特征進(jìn)行總結(jié),并據(jù)此對(duì)未來社會(huì)進(jìn)行感知和決策的過程,這一過程不可避免地會(huì)復(fù)制并延續(xù)傳統(tǒng)社會(huì)特征,使得現(xiàn)階段生成式人工智能技術(shù)無法完全避免歧視。人工智能系統(tǒng)可能因訓(xùn)練數(shù)據(jù)偏差或算法設(shè)計(jì)缺陷而強(qiáng)化或放大社會(huì)偏見。而此時(shí)的關(guān)鍵問題在于如何界定算法確實(shí)存在設(shè)計(jì)缺陷同時(shí)提供有效的救濟(jì)。
實(shí)際上,公平和非歧視性要求往往是以程序正義疊加結(jié)果公平的方式來實(shí)現(xiàn)。從程序正義的角度需要增加人工智能處理過程的透明度。透明度是程序公平的首要條件,其核心在于使受人工智能影響的主體能夠知悉算法決策的依據(jù)、結(jié)構(gòu)與效果。歐盟《通用數(shù)據(jù)保護(hù)條例》(General Data Protection Regulation,以下簡(jiǎn)稱“GDPR”)第22條明確賦予個(gè)人拒絕純自動(dòng)化決策的權(quán)利,并要求企業(yè)提供解釋權(quán)、申訴機(jī)制等程序保障。歐盟的《人工智能法案》更是將“高風(fēng)險(xiǎn)人工智能系統(tǒng)”納入重點(diǎn)規(guī)制范圍,要求其在設(shè)計(jì)、部署過程中滿足公平性、透明度、可追溯性等倫理與法律要求。增強(qiáng)可解釋性及可理解性均可對(duì)相應(yīng)主體權(quán)益救濟(jì)發(fā)揮重要作用。但是,即便是使得整體程序更為透明,相應(yīng)的群體也會(huì)因?yàn)殚L期以來形成的社會(huì)偏見而承受不利后果。因而對(duì)非因人工智能系統(tǒng)產(chǎn)生的問題,則需要對(duì)人工智能系統(tǒng)開發(fā)者提出進(jìn)一步要求,評(píng)估預(yù)測(cè)結(jié)果對(duì)不同群體的影響分布,并在必要時(shí)加入公平調(diào)整函數(shù)(fairness adjustment function)或群體平權(quán)約束(group fairness constraint),以實(shí)現(xiàn)更公正的結(jié)果。
但是,結(jié)果平等追求的是最終狀態(tài)的均衡而非僅形式上機(jī)會(huì)一致的平等,因此在法律與公共政策領(lǐng)域中,結(jié)果平等應(yīng)當(dāng)具有重要但相對(duì)謹(jǐn)慎的適用范圍。僅形式上的機(jī)會(huì)平等與程序正義難以糾正現(xiàn)實(shí)中的結(jié)構(gòu)性不平等與制度性障礙,因此應(yīng)在特定場(chǎng)景中對(duì)弱勢(shì)群體給予實(shí)質(zhì)性扶持、補(bǔ)償或干預(yù)。但若過多干涉,則會(huì)造成對(duì)其他群體的不當(dāng)影響。因此,在人工智能倫理治理中,程序正義所要求的透明度、可解釋性與可理解性最有可能通過標(biāo)準(zhǔn)化的方式加以落實(shí);相比之下,對(duì)于結(jié)果公平的追求則需根據(jù)具體應(yīng)用場(chǎng)景,審慎判斷其要求是否具有合理性。即便如此,對(duì)程序正義的追求實(shí)際上也受到社會(huì)成本及實(shí)際條件的客觀限制,無法在技術(shù)上做到極致。正是由于人工智能應(yīng)用中的某些結(jié)果屬于非故意、非直接的系統(tǒng)性偏差,導(dǎo)致對(duì)其直接適用法律存在困難,如均將因人工智能產(chǎn)生的不利后果界定為損害,則不僅會(huì)抑制技術(shù)發(fā)展進(jìn)步,也會(huì)最終使得社會(huì)分配體系陷入混亂之中。因此更宜以倫理治理的方式對(duì)該領(lǐng)域進(jìn)行引導(dǎo)性、倡導(dǎo)性規(guī)制,以起到漸進(jìn)式規(guī)制的效果。
(二)多元倫理價(jià)值的沖突與不同社會(huì)的價(jià)值位階差異
倫理治理不僅具有高度的交叉性,而且還會(huì)因不同的考量而產(chǎn)生統(tǒng)合沖突問題。這些不同考慮之間存在很多復(fù)雜的、經(jīng)常沖突的面向,很難提煉出可以普遍適用的、穩(wěn)定的決策要件。美國國家標(biāo)準(zhǔn)與技術(shù)研究院提出的第三類風(fēng)險(xiǎn)為指導(dǎo)政策與價(jià)值原則風(fēng)險(xiǎn)。這類風(fēng)險(xiǎn)主要涉及更廣泛的社會(huì)價(jià)值判斷,如隱私、問責(zé)、公平、正義、平等等。這些價(jià)值因其高度依賴具體語境而難以跨領(lǐng)域進(jìn)行一致測(cè)量。因此,對(duì)于此類風(fēng)險(xiǎn),需首先借助特定場(chǎng)景之下的倫理框架予以預(yù)先判斷是否存在相關(guān)權(quán)益受到侵害的事實(shí)。
在缺乏完善法律規(guī)制的前提下,倫理規(guī)范可在價(jià)值引導(dǎo)和行為約束之間發(fā)揮橋梁作用,促進(jìn)政府、企業(yè)與公眾之間的信任關(guān)系構(gòu)建,從而實(shí)現(xiàn)以技術(shù)促進(jìn)社會(huì)整體利益最大化的目標(biāo)。倫理治理的最終指向是維護(hù)和提升技術(shù)發(fā)展過程中的公共利益,實(shí)現(xiàn)技術(shù)進(jìn)步與社會(huì)價(jià)值之間的協(xié)調(diào)統(tǒng)一。人身權(quán)是最基本的個(gè)人權(quán)利,因此公共健康、公共安全和環(huán)境信息就構(gòu)成典型的公共利益。對(duì)公共利益內(nèi)涵及外延的積極探索,正在成為人工智能治理相關(guān)的數(shù)據(jù)處理中的重要命題。
實(shí)際上,對(duì)于“維護(hù)公共安全所必須”這一概念的理解,我國和歐盟成員國存在差異。以行車記錄儀的適用問題為例,在德國雖然行車記錄儀中保存的影像可以作為事故的責(zé)任訴訟的證據(jù),但是其可用性要進(jìn)行個(gè)案衡量。此種衡量中涉及到當(dāng)事人的個(gè)人形象信息,因此個(gè)人信息自決權(quán)應(yīng)當(dāng)占有優(yōu)勢(shì)地位。出于維護(hù)公共安全所必須,行車記錄儀在我國的適用依照一般車輛及特殊用途車輛進(jìn)行分類管理。我國的《汽車數(shù)據(jù)安全管理若干規(guī)定(試行)》中明確了汽車數(shù)據(jù)依法合理有效利用的原則,包括車內(nèi)處理原則、默認(rèn)不收集原則、精度范圍適用原則及脫敏處理原則,兼顧了個(gè)人隱私利益和公共安全。
以上對(duì)于信息訪問權(quán)以及出于維護(hù)公共安全目的對(duì)信息的處理活動(dòng)的限制差異體現(xiàn)出兩種體系在打擊犯罪和維護(hù)安全目的之下不同的規(guī)制思路,并由此對(duì)各自體系下的個(gè)人信息權(quán)(益)的具體內(nèi)容及限制產(chǎn)生直接影響。我國在處理相關(guān)問題時(shí)更加注重對(duì)于使用端目的及正當(dāng)性的考量,而歐盟更偏向于在收集端進(jìn)行規(guī)制。在不同的階段介入進(jìn)行規(guī)制,體現(xiàn)出對(duì)于風(fēng)險(xiǎn)規(guī)制和數(shù)據(jù)利用的不同態(tài)度,從更深維度的倫理角度而言,是個(gè)體主義與集體主義何者為先的辯證關(guān)系在倫理層面對(duì)制度的映射。東方國家的普遍集體主義思維傾向于對(duì)“公共利益”的概念做作更為泛化的理解。因此,由于各國存在不同的歷史文化傳統(tǒng),處于不同的社會(huì)及經(jīng)濟(jì)發(fā)展階段,同時(shí)還存在不同的產(chǎn)業(yè)布局,在存在多重倫理價(jià)值沖突的前提下,難以期待各國能有完全一致的價(jià)值位階選擇。而集體主義和個(gè)體主義之間的辯證關(guān)系使得各自對(duì)“以人為本”的內(nèi)涵理解存在一定差異。亦有學(xué)者指出歐盟的個(gè)人權(quán)利為本的立法策略是權(quán)利中心主義的體現(xiàn),然而公共利益很難被簡(jiǎn)單歸入權(quán)利保護(hù)的范疇,這是由于“公共利益”本質(zhì)上是一種不同群體利益之間的內(nèi)部權(quán)衡。而多元主體的訴求難以被一種統(tǒng)一化的價(jià)值所完全涵蓋。因此,對(duì)公共利益的理解必然是動(dòng)態(tài)的、具有區(qū)域化特征的,并非一個(gè)簡(jiǎn)單的一體化目標(biāo),而是一個(gè)競(jìng)爭(zhēng)性的復(fù)合體。從某種程度上來說,倫理治理的手段相對(duì)于權(quán)利義務(wù)邊界更為分明的立法而言更為適宜作為人工智能治理的主要方式。而各國對(duì)人工智能的倫理治理必定沿著自己所界定的公共利益價(jià)值進(jìn)行展開。
倫理治理的邊界并非止于社會(huì)規(guī)范層面。當(dāng)倫理沖突上升為制度性博弈、價(jià)值體系分歧演化為國家間的技術(shù)競(jìng)爭(zhēng)時(shí),人工智能治理的重心便從個(gè)體與社會(huì)層面進(jìn)一步延伸至國家安全層面。倫理多元化的現(xiàn)實(shí)格局,使得不同國家在人工智能治理中呈現(xiàn)出以公共利益、國家安全為核心的價(jià)值取向。由此,國家安全不僅是人工智能倫理治理的外部約束,更構(gòu)成其制度邏輯的最終延伸。
三
軍民兩用背景下的人工智能安全治理
在倫理治理向國家層面延伸的過程中,人工智能安全問題逐漸從社會(huì)價(jià)值議題演變?yōu)閲野踩h題。尤其是在軍民兩用技術(shù)背景下,人工智能的戰(zhàn)略屬性顯著增強(qiáng),其潛在風(fēng)險(xiǎn)已超出個(gè)體權(quán)利與社會(huì)倫理的調(diào)節(jié)范圍,直接關(guān)系國家安全體系的整體穩(wěn)定。因此,人工智能安全治理可以視為人工智能治理體系的宏觀層面,是產(chǎn)品責(zé)任與倫理治理在國家戰(zhàn)略領(lǐng)域的延伸與再結(jié)構(gòu)化。人工智能技術(shù)在全球范圍內(nèi)的應(yīng)用涵蓋了經(jīng)濟(jì)、社會(huì)、國防等多個(gè)領(lǐng)域,其治理也代表主權(quán)國家或地區(qū)的價(jià)值導(dǎo)向。法律上往往以主權(quán)、領(lǐng)土安全及國防安全作為對(duì)國家安全問題研究的起點(diǎn)。我國的《國家安全法》從總體國家安全觀的角度對(duì)國家安全進(jìn)行了全面界定,即國家安全是指國家政權(quán)、主權(quán)、統(tǒng)一和領(lǐng)土完整、人民福祉、經(jīng)濟(jì)社會(huì)可持續(xù)發(fā)展和國家其他重大利益相對(duì)處于沒有危險(xiǎn)和不受內(nèi)外威脅的狀態(tài),以及保障持續(xù)安全狀態(tài)的能力。技術(shù)經(jīng)濟(jì)安全指國家通過建立相應(yīng)機(jī)構(gòu)和制度保護(hù)本國根本利益不因技術(shù)與經(jīng)濟(jì)、國家安全的對(duì)立統(tǒng)一關(guān)系及其產(chǎn)生的影響而面臨“存在性威脅”或?qū)е聦?duì)“存在性威脅”的恐懼。在總體國家安全觀之下,國家安全當(dāng)然包括國家經(jīng)濟(jì)及科技安全。各國也在都在人工智能等領(lǐng)域拓展軍民兩用的空間,但是不當(dāng)強(qiáng)調(diào)人工智能的軍事性風(fēng)險(xiǎn)會(huì)使得實(shí)際威脅與手段不具有對(duì)稱性,同時(shí)會(huì)加劇援引國家安全例外條款的沖動(dòng)。
(一)從國家安全層面規(guī)制人工智能的必要性
風(fēng)險(xiǎn)規(guī)制的客觀要求使得規(guī)制的視角從事后的責(zé)任分擔(dān)轉(zhuǎn)為事前的重點(diǎn)預(yù)防,這是由國家義務(wù)的特定性所決定的。也有學(xué)者擔(dān)心如轉(zhuǎn)為預(yù)防國家,將法益的安全保障直接作為國家活動(dòng)的方向,會(huì)隨著其在質(zhì)和量上的變化而最終導(dǎo)致法治國家性喪失。因此,人工智能領(lǐng)域如何在國家承擔(dān)保障職能的同時(shí)維持國家其他經(jīng)濟(jì)活動(dòng)等法治國家制度活性,是理論路徑選擇的前置性課題。
人工智能治理和人類曾經(jīng)面對(duì)的其他需要全球協(xié)同的事項(xiàng)都存在不同。首先,國際貿(mào)易性問題傳統(tǒng)的解決路徑是通過管制協(xié)調(diào),以去除貿(mào)易壁壘的方式進(jìn)行相應(yīng)制度的對(duì)接,同時(shí)完成標(biāo)準(zhǔn)的統(tǒng)一以去除融合成本,促進(jìn)更高水平的某一部門的管制相融的具體措施。人工智能的產(chǎn)業(yè)發(fā)展存在產(chǎn)業(yè)鏈較長的問題,雖然對(duì)國際貿(mào)易的依存度較高,但是與傳統(tǒng)的貨物買賣及服務(wù)貿(mào)易存在差異。這種差異體現(xiàn)在產(chǎn)業(yè)和國家的戰(zhàn)略需求出現(xiàn)分化。產(chǎn)業(yè)本身傾向于市場(chǎng)化配置最先進(jìn)的技術(shù)及成本最低廉的供給,從科技發(fā)展的國際構(gòu)圖來看,人工智能產(chǎn)業(yè)鏈條的尖端分布在不同的國家級(jí)區(qū)域,國際貿(mào)易的需求持續(xù)存在。但是從國家的產(chǎn)業(yè)布局層面來看,產(chǎn)業(yè)鏈安全可控成為首要追求。因此,扶持本國企業(yè)發(fā)展,壯大核心產(chǎn)業(yè)鏈成為必然的舉措,而這種對(duì)于安全的追求又會(huì)直接對(duì)國際貿(mào)易的發(fā)展產(chǎn)生抑制效應(yīng)。
在人工智能產(chǎn)業(yè)的發(fā)展之中,之所以會(huì)有安全優(yōu)先的考量,是源于此種技術(shù)的軍民雙重性。美國已經(jīng)從戰(zhàn)略上將人工智能產(chǎn)業(yè)納入到軍事管理的范疇,從國家安全的角度來統(tǒng)籌管理產(chǎn)業(yè)發(fā)展。正是基于人工智能的此種特殊性,使得一般國際貿(mào)易規(guī)則對(duì)其不能完全發(fā)揮作用,國家安全條款的存在往往會(huì)成為直接跳脫出經(jīng)貿(mào)規(guī)則的最大變數(shù)。
(二)軍民兩用背景下泛化國家安全概念的問題
2024年9月9日,美國商務(wù)部工業(yè)與安全局(Bureau of Industry and Security,以下簡(jiǎn)稱“BIS”)依據(jù)2023年《關(guān)于安全、可靠和可信開發(fā)和使用人工智能的行政命令》(Executive Order on the Safe,Secure,and Trustworthy Development and Use of Artificial Intelligence,以下簡(jiǎn)稱“第14110號(hào)行政令”)發(fā)布“建立先進(jìn)人工智能模型和計(jì)算集群開發(fā)的報(bào)告要求:擬議規(guī)則”(Establishment of Reporting Requirements for the Development of Advanced Artificial Intelligence Models and Computing Clusters: A Proposed Rule,以下簡(jiǎn)稱“擬議規(guī)則”),對(duì)符合特定標(biāo)準(zhǔn)的人工智能企業(yè)施加強(qiáng)制性報(bào)告義務(wù)。該擬議規(guī)則旨在通過定期報(bào)告制度,強(qiáng)化對(duì)人工智能模型開發(fā)和大規(guī)模計(jì)算基礎(chǔ)設(shè)施的安全監(jiān)管。
當(dāng)前,BIS援引美國《國防生產(chǎn)法》(Defense Production Act,以下簡(jiǎn)稱“DPA”)發(fā)布擬議規(guī)則的做法,正是“國家安全”概念不斷擴(kuò)張的體現(xiàn)。DPA的最初立法目的是為保障戰(zhàn)爭(zhēng)物資供應(yīng),經(jīng)過多次修訂和實(shí)踐擴(kuò)展,逐漸發(fā)展成為一個(gè)涵蓋優(yōu)先分配權(quán)、生產(chǎn)能力擴(kuò)展、外資審查、市場(chǎng)管控等多重權(quán)能的綜合性監(jiān)管工具。DPA的擴(kuò)展性適用經(jīng)歷了從軍事需求到民生安全,再到技術(shù)管控的演進(jìn)過程。DPA適用的持續(xù)擴(kuò)張映射出美國政府試圖通過行政強(qiáng)制力重構(gòu)產(chǎn)業(yè)鏈的政策取向,同時(shí)是美國政府對(duì)國家安全概念不斷擴(kuò)大解釋的實(shí)踐做法之一。
根據(jù)BIS發(fā)布的擬議規(guī)則,報(bào)告主體為開發(fā)雙重用途基礎(chǔ)模型或大規(guī)模計(jì)算集群的公司,其所采用的“雙重用途基礎(chǔ)模型”(dual-use foundation models)并不同于傳統(tǒng)出口管制領(lǐng)域中“軍民兩用”(military-civilian dual-use)的表述。“雙重用途模型”這一概念起源于《出口管制條例》,聚焦于可用于軍事與和平目的的技術(shù)。然而,根據(jù)第14110號(hào)行政令的定義,“雙重用途基礎(chǔ)模型”是“在廣泛數(shù)據(jù)上訓(xùn)練;通常使用自監(jiān)督;包含至少數(shù)千億個(gè)參數(shù);應(yīng)用于廣泛的場(chǎng)景;并在可能對(duì)國家安全、國家經(jīng)濟(jì)安全、國家公共衛(wèi)生或安全或這些事項(xiàng)的任意組合造成嚴(yán)重風(fēng)險(xiǎn)的任務(wù)中表現(xiàn)出或可通過輕微調(diào)整而表現(xiàn)出高水平性能”。且擬議規(guī)則要求所有在美國境內(nèi)開發(fā)的、符合條件的模型均需報(bào)告,并非僅面向出口技術(shù),表明其管控范圍不僅限于軍事用途,還涵蓋國家安全、國家經(jīng)濟(jì)安全、公共衛(wèi)生等多重領(lǐng)域。此外,擬議規(guī)則還為 BIS設(shè)立界定管控對(duì)象的動(dòng)態(tài)調(diào)整機(jī)制,表明其管控對(duì)象并非傳統(tǒng)“軍民融合”中與國防部合作的私營企業(yè),而是面向所有具備先進(jìn)人工智能開發(fā)技術(shù)的企業(yè)。
國家安全研究通常圍繞保護(hù)對(duì)象、面臨威脅與應(yīng)對(duì)手段三個(gè)維度展開分析。從保護(hù)對(duì)象角度看,以人工智能為代表的科技安全已成為國家安全體系的重要支撐。所謂科技安全是指國家科技體系完整有效,國家重點(diǎn)領(lǐng)域核心技術(shù)自主可控,國家核心利益和安全不受外部科技優(yōu)勢(shì)危害,以及保障持續(xù)安全狀態(tài)的能力。值得注意的是,此時(shí)對(duì)于科技安全作為國家安全問題的保護(hù)對(duì)象,需要滿足國家重點(diǎn)領(lǐng)域的核心技術(shù)要求,而非將科技安全對(duì)國家安全的影響泛化到所有技術(shù)類型的層面。
就面臨威脅及對(duì)應(yīng)的手段而言,任何治理體系的合法性與有效性,都建立在對(duì)風(fēng)險(xiǎn)的準(zhǔn)確識(shí)別與對(duì)策匹配的基礎(chǔ)之上。如果治理手段與實(shí)際威脅之間存在脫節(jié),不僅可能導(dǎo)致治理資源浪費(fèi)、技術(shù)發(fā)展的不必要抑制,還可能破壞法治原則下的比例性要求與最低限度干預(yù)原則(principle of minimum intervention)。在人工智能治理中尤其如此,因?yàn)樵摷夹g(shù)高度復(fù)雜、風(fēng)險(xiǎn)多元,涵蓋了從算法偏見、數(shù)據(jù)濫用到軍事化應(yīng)用、社會(huì)穩(wěn)定等多個(gè)層面。例如,面向算法偏見和數(shù)據(jù)歧視風(fēng)險(xiǎn)的治理,應(yīng)當(dāng)集中在優(yōu)化數(shù)據(jù)質(zhì)量、引入算法可解釋性、建立獨(dú)立審計(jì)機(jī)制等技術(shù)與合規(guī)手段,而不宜通過全面封禁或技術(shù)禁止等極端手段,這不僅違背了比例性,也阻礙了技術(shù)創(chuàng)新。相反,當(dāng)涉及人工智能在軍事領(lǐng)域的致命性自主武器系統(tǒng)(lethal autonomous weapon systems,LAWS)、大規(guī)模殺傷性潛力、國家關(guān)鍵基礎(chǔ)設(shè)施攻擊等威脅時(shí),傳統(tǒng)的行業(yè)自律、軟法框架顯然不足以應(yīng)對(duì),需要納入國際法框架下的強(qiáng)制性限制、危機(jī)溝通機(jī)制與聯(lián)合監(jiān)管工具。換言之,治理的強(qiáng)度、范圍和手段設(shè)計(jì),必須與其應(yīng)對(duì)的風(fēng)險(xiǎn)類型和嚴(yán)重性嚴(yán)格匹配,才能避免因小題大做或過度安全化引發(fā)的治理失衡。
更重要的是,國際治理中的面臨威脅與使用手段對(duì)應(yīng)關(guān)系,也是維護(hù)國際合作與信任的前提條件。當(dāng)前美國的人工智能雙用標(biāo)準(zhǔn)中,風(fēng)險(xiǎn)的定義并不基于具體應(yīng)用,而是以諸如參數(shù)量、處理能力、多模態(tài)推理能力等模型能力為核心來劃定“高風(fēng)險(xiǎn)”或“受控”模型。這種標(biāo)準(zhǔn)可能會(huì)將大量用于教育、研究、非敏感產(chǎn)業(yè)的基礎(chǔ)模型納入“準(zhǔn)軍用”的監(jiān)管范圍。參數(shù)門檻實(shí)際上是一種能力先行而非用途導(dǎo)向的先發(fā)式風(fēng)險(xiǎn)規(guī)制,沒有對(duì)模型是否真正進(jìn)入軍事用途進(jìn)行充分事實(shí)判斷,這種模式會(huì)直接影響到各場(chǎng)景下正常的市場(chǎng)應(yīng)用行為。當(dāng)標(biāo)準(zhǔn)劃分不以實(shí)際用途為核心,而是以能力為標(biāo)準(zhǔn)時(shí),開發(fā)者會(huì)因不確定性而限制模型開放性、功能性與研究發(fā)布,對(duì)未來的研發(fā)造成負(fù)面影響。目前美國人工智能軍民兩用標(biāo)準(zhǔn)的核心制度基礎(chǔ),主要來源于第14110號(hào)行政令、美國國家標(biāo)準(zhǔn)與技術(shù)研究院發(fā)布的《人工智能風(fēng)險(xiǎn)管理框架》(AI Risk Management Framework)以及BIS《關(guān)于可能用于訓(xùn)練人工智能模型的先進(jìn)計(jì)算集成電路及其他商品的管控政策聲明》(BIS Policy Statement on Controls that May Apply to Advanced Computing Integrated Circuits and Other Commodities Used to Train AI Models)。這些標(biāo)準(zhǔn)雖有政策權(quán)威,但大多非正式法律文件,并非由國會(huì)立法確立,沒有形成明確的實(shí)定法邊界,缺乏可訴性。美國人工智能兩用標(biāo)準(zhǔn)目前沒有為被認(rèn)定為“高風(fēng)險(xiǎn)”“雙用途”的模型提供任何正式申訴機(jī)制或司法復(fù)核通道,這導(dǎo)致企業(yè)和研發(fā)主體難以預(yù)判自身是否會(huì)被認(rèn)定為“受控模型開發(fā)者”或“軍用高風(fēng)險(xiǎn)技術(shù)提供者”。因此,美國現(xiàn)行人工智能軍民兩用標(biāo)準(zhǔn)的軟法形式與程序缺失偏離了法治治理的基本規(guī)范性框架。反之,建立基于實(shí)際威脅、科學(xué)證據(jù)與共識(shí)評(píng)估的分層治理體系,才能推動(dòng)各方在安全與發(fā)展的動(dòng)態(tài)平衡中找到共同點(diǎn),為全球人工智能治理提供穩(wěn)固的法治基礎(chǔ)與合作空間。
相較于美國以“前沿人工智能能力”“高參數(shù)模型”等模糊標(biāo)準(zhǔn)設(shè)限,缺乏法定目錄的情況,我國則是通過法定清單將受控技術(shù)品類逐項(xiàng)列明,企業(yè)可提前查詢判斷,具有明確的前瞻性與可操作性。另外,我國實(shí)行個(gè)案許可制,出口商可申請(qǐng)、申訴、復(fù)議。中國企業(yè)在出口前可以依法申請(qǐng)?jiān)S可證、獲得審查意見,甚至提起行政復(fù)議或訴訟。我國清單制度依據(jù)《出口管制法》,具備立法機(jī)關(guān)授權(quán)的實(shí)定法地位,可直接適用、可作為執(zhí)法依據(jù)、可納入國際談判。因此,在國際技術(shù)貿(mào)易爭(zhēng)端中,我國以動(dòng)態(tài)清單方式管控軍民兩用物更易被視為“合理限制”,美國軟法標(biāo)準(zhǔn)則可能被視為歧視性管制。
美國采取了該國體系之下的軍民兩用物資的路徑進(jìn)行規(guī)制體現(xiàn)了其將人工智能技術(shù)力量泛軍事化,過分強(qiáng)調(diào)其軍事威脅性,使其落入國家安全的范疇并以經(jīng)濟(jì)手段予以應(yīng)對(duì)的意圖。雖然,人工智能確實(shí)可因其通用性與跨界性,天然具備軍民兩用屬性。無論是美國的國防創(chuàng)新單位(Defense Innovation Unit)、歐盟的防務(wù)基金(EU Defense Fund),還是中國的“軍民融合發(fā)展戰(zhàn)略”,都明確將人工智能列為優(yōu)先發(fā)展的前沿技術(shù),用以提升情報(bào)分析、武器系統(tǒng)、戰(zhàn)場(chǎng)管理等能力。但是這種擴(kuò)張邏輯也引發(fā)了人工智能軍事化風(fēng)險(xiǎn)的被過度放大。例如,美中技術(shù)競(jìng)爭(zhēng)背景下,歐美智庫和媒體頻繁將人工智能視為“戰(zhàn)略威脅”,呼吁針對(duì)中國采取出口管制、投資限制、技術(shù)封鎖等安全措施。這種軍事化敘事但如果缺乏精準(zhǔn)界定,容易陷入“泛安全化”陷阱,使得原本用于防御真實(shí)威脅的國家安全工具被濫用于貿(mào)易保護(hù)或地緣政治競(jìng)爭(zhēng)中。
(三)國家安全例外條款的濫用及其問題
國家安全例外條款在國際法中主要體現(xiàn)在《關(guān)稅與貿(mào)易總協(xié)定》(General Agreement on Tariffs and Trade,GATT)第21條、《服務(wù)貿(mào)易總協(xié)定》(General Agreement on Trade in Services,GATS)第14條、《與貿(mào)易有關(guān)的投資措施協(xié)議》(Agreement on Trade-Related Investment Measures,TRIMS)等多邊框架中。這些條款本意是給予成員國在面臨真實(shí)安全威脅時(shí)的適度彈性空間。然而,近年來伴隨技術(shù)領(lǐng)域特別是人工智能領(lǐng)域的地緣政治化,各國頻繁以國家安全為由實(shí)施投資審查、技術(shù)封鎖,甚至引發(fā)了WTO爭(zhēng)端。這種例外條款的泛化使用,不僅削弱了多邊貿(mào)易體系的穩(wěn)定性,也可能反噬國家自身的治理合法性,使國際社會(huì)對(duì)其動(dòng)機(jī)和正當(dāng)性產(chǎn)生質(zhì)疑。在國際權(quán)力結(jié)構(gòu)視角下,大國在安全例外條款的解釋和適用過程中往往具有更強(qiáng)的話語權(quán)和實(shí)踐自主權(quán)。有學(xué)者指出,雖然WTO第21條在形式上賦予所有成員國平等的自主判斷權(quán),但實(shí)踐中這種權(quán)力的行使卻呈現(xiàn)出顯著的不對(duì)稱性。美國對(duì)人工智能芯片的出口管制以及擬議的硬件管制將國家安全目標(biāo)與產(chǎn)業(yè)政策目標(biāo)混為一談,這已經(jīng)成為迄今為止美國人工智能政策的一個(gè)普遍特征。
從法理上看,國家在人工智能治理中援引國家安全例外條款,必須符合必要性、比例性與最小干預(yù)等國際法原則。然而,軍事性風(fēng)險(xiǎn)的獨(dú)特性質(zhì)往往模糊了這種法律審查的邊界。一方面,人工智能的威脅尚多停留在理論層面,例如“自主武器系統(tǒng)”尚未大規(guī)模部署、人工智能引發(fā)的戰(zhàn)略穩(wěn)定失衡尚缺乏實(shí)證支撐;另一方面,基于這些風(fēng)險(xiǎn)采取的法律和政策手段(如全面技術(shù)禁運(yùn)、對(duì)外投資審查、跨境數(shù)據(jù)流限制)卻具有高強(qiáng)度、廣覆蓋的特點(diǎn),導(dǎo)致治理手段與實(shí)際威脅之間出現(xiàn)嚴(yán)重的不對(duì)稱性。這種不對(duì)稱不僅帶來了對(duì)國際貿(mào)易法、投資法的沖擊,也使國家更容易借國家安全例外條款之名,規(guī)避國際法下的義務(wù),損害國際經(jīng)濟(jì)秩序的穩(wěn)定性。
四
人工智能國際治理的進(jìn)路分析
人工智能技術(shù)的迅速發(fā)展正在重塑全球治理格局,各國為應(yīng)對(duì)其帶來的倫理、法律與社會(huì)挑戰(zhàn),采取了截然不同的治理路徑。當(dāng)前,歐盟、美國和中國代表著三種典型模式:歐盟以個(gè)體權(quán)利保護(hù)為核心,將涉及產(chǎn)品及系統(tǒng)安全的層面置于首要位置;美國以去中心化的綜合性權(quán)利保護(hù)路徑為基礎(chǔ),逐步走向?qū)ν夥烙浴⒎簢野踩闹卫砺窂剑恢袊鴦t以公共利益平衡下的個(gè)人權(quán)利保護(hù)為核心。這三種路徑不僅反映了各自獨(dú)特的法律體系和價(jià)值觀,還在產(chǎn)品責(zé)任界定、倫理價(jià)值判斷以及國家安全保障等方面帶來了法律與制度挑戰(zhàn)。本文試圖在產(chǎn)品責(zé)任、倫理價(jià)值和國家安全三重維度下,提煉出兼具可操作性與前瞻性的人工智能規(guī)制進(jìn)路。
(一)產(chǎn)品責(zé)任:利用技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)則搭建基本共識(shí)
綜上所述,歐盟遵循嚴(yán)格的產(chǎn)品安全監(jiān)管傳統(tǒng),強(qiáng)調(diào)統(tǒng)一立法與事前合規(guī);而美國的規(guī)制模式更傾向于去中心化的綜合性權(quán)利保護(hù)路徑,強(qiáng)調(diào)通過對(duì)隱私、知情同意、公平獲取等權(quán)利的保護(hù)間接實(shí)現(xiàn)人工智能治理,而非以人工智能產(chǎn)品本身直接作為規(guī)制對(duì)象。從規(guī)制的價(jià)值來看,歐盟體現(xiàn)出一種基于后果主義的產(chǎn)品風(fēng)險(xiǎn)規(guī)制目標(biāo),而美國在人工智能治理的消費(fèi)者權(quán)益保護(hù)進(jìn)路中更關(guān)注矯正后的交易正義。然而,無論是事前的風(fēng)險(xiǎn)治理,還是去中心化的權(quán)利保護(hù),人工智能治理與傳統(tǒng)產(chǎn)品責(zé)任治理相比,面臨著更加復(fù)雜和多變的風(fēng)險(xiǎn)場(chǎng)景,單一的法律工具或監(jiān)管手段難以有效應(yīng)對(duì)。人工智能治理亟需多元化、協(xié)同化的法律與監(jiān)管體系。
通常風(fēng)險(xiǎn)管控任務(wù)需要借助公私法體系的全面落實(shí),以所謂的“相互工具化”手段達(dá)成。我國行政機(jī)構(gòu)往往將技術(shù)標(biāo)準(zhǔn)作為事實(shí)認(rèn)定構(gòu)成要件判斷的根據(jù),并根據(jù)事實(shí)認(rèn)定的結(jié)果作出是否給予許可或者進(jìn)行處罰的決定。產(chǎn)品質(zhì)量安全體系中的技術(shù)標(biāo)準(zhǔn)往往從生產(chǎn)的各環(huán)節(jié)、全流程進(jìn)行體系化設(shè)計(jì),以確保在生產(chǎn)過程中的品質(zhì)符合特定產(chǎn)品或服務(wù)的最低安全保障要求。以我國的食品安全標(biāo)準(zhǔn)體系為例,食品安全標(biāo)準(zhǔn)體系圍繞食品鏈全流程,食品的危害因子,食品類別以及標(biāo)準(zhǔn)層次來進(jìn)行食品安全標(biāo)準(zhǔn)化體系設(shè)計(jì)。與此相似,我國的人工智能標(biāo)準(zhǔn)體系也是由處理流程的安全規(guī)范、危害行為治理、場(chǎng)景治理及標(biāo)準(zhǔn)層次等要素組成。例如,在個(gè)人信息處理及生成式人工智能預(yù)訓(xùn)練全流程有一系列國家標(biāo)準(zhǔn),從更為實(shí)操的層面規(guī)定了個(gè)人信息處理活動(dòng)應(yīng)遵循的原則和安全要求以及人工智能訓(xùn)練數(shù)據(jù)的各項(xiàng)安全要求及評(píng)價(jià)方法。針對(duì)網(wǎng)絡(luò)上大量的虛假信息及人工智能合成信息的不規(guī)范使用問題,全國網(wǎng)絡(luò)安全標(biāo)準(zhǔn)化技術(shù)委員會(huì)出臺(tái)了《網(wǎng)絡(luò)安全技術(shù)生成式人工智能數(shù)據(jù)標(biāo)注安全規(guī)范》(GB/T 45674-2025);同時(shí),圍繞醫(yī)療、家居等生活場(chǎng)景,以及交通等重點(diǎn)行業(yè)及場(chǎng)景需求,相關(guān)應(yīng)用標(biāo)準(zhǔn)也正在研制之中。不同的是,依據(jù)《食品安全法》,食品安全標(biāo)準(zhǔn)必須為強(qiáng)制性執(zhí)行標(biāo)準(zhǔn),而涉及人工智能領(lǐng)域的標(biāo)準(zhǔn)以國家推薦性標(biāo)準(zhǔn)為主。兩者的差異體現(xiàn)在效力之上:食品不符合安全標(biāo)準(zhǔn)可以直接作為行政處罰的依據(jù),而在網(wǎng)絡(luò)安全及數(shù)據(jù)治理領(lǐng)域,盡管標(biāo)準(zhǔn)不屬于正式的法源且不具有形式上的約束力,由于其鮮明的行為導(dǎo)向功能和信號(hào)功能,仍能夠被法院和行政機(jī)關(guān)援引,產(chǎn)生實(shí)際的規(guī)范效果;還能夠構(gòu)成行政機(jī)關(guān)判斷事實(shí)認(rèn)定構(gòu)成要件的基準(zhǔn),從而拘束行政機(jī)關(guān)的決定。
推薦性國家標(biāo)準(zhǔn)往往意在推薦行業(yè)中的最佳行為標(biāo)準(zhǔn),對(duì)于人工智能行業(yè)而言,其行為樣態(tài)及危害在不同場(chǎng)景中不具有統(tǒng)一性,且主體的風(fēng)險(xiǎn)預(yù)防及控制能力也存在較大差異,事前難以找到“一刀切”的社會(huì)最佳使用標(biāo)準(zhǔn)。原本對(duì)于社會(huì)風(fēng)險(xiǎn)控制的最佳標(biāo)準(zhǔn)往往通過私法的渠道,由法官在個(gè)案中依據(jù)具體的情勢(shì)予以定奪。但是在人工智能這種具有高度技術(shù)要求的領(lǐng)域,法官往往由于缺乏相應(yīng)的知識(shí)儲(chǔ)備而需向外求助相應(yīng)的技術(shù)支援。此時(shí),以推薦性標(biāo)準(zhǔn)的方式引入系統(tǒng)將更為可行,既填補(bǔ)了法官在相關(guān)案件判決時(shí)無技術(shù)支持的被動(dòng)局面,也以標(biāo)準(zhǔn)化的方式降低了整體的社會(huì)成本。
公法上的食品安全標(biāo)準(zhǔn)意在為相關(guān)行業(yè)設(shè)定最低的門檻性要求,許多標(biāo)準(zhǔn)被法律所援引成為立法的重要組成,經(jīng)營者可以此為基準(zhǔn)在后續(xù)的運(yùn)營中慢慢形成新的領(lǐng)域內(nèi)的“最佳實(shí)踐”樣本,以增強(qiáng)企業(yè)的市場(chǎng)競(jìng)爭(zhēng)力。而人工智能治理領(lǐng)域往往也是基于對(duì)標(biāo)準(zhǔn)進(jìn)行最佳實(shí)踐,以確保人工智能不會(huì)對(duì)關(guān)鍵基礎(chǔ)設(shè)施和網(wǎng)絡(luò)安全造成威脅。但值得注意的是,人工智能的最佳實(shí)踐本身并非行業(yè)的最低門檻性要求,這是由于人工智能領(lǐng)域的技術(shù)一直處于不斷迭代的動(dòng)態(tài)環(huán)境之中,若采用最低門檻,容易使企業(yè)出于成本考量滿足于最低限度的合規(guī),不利于構(gòu)建高質(zhì)量的人工智能生態(tài),難以對(duì)企業(yè)產(chǎn)生自發(fā)性規(guī)制的激勵(lì)效果。正因?yàn)樽罴褜?shí)踐的非底線性要求,對(duì)于人工智能治理的標(biāo)準(zhǔn)往往以推薦性“軟”標(biāo)準(zhǔn)的形態(tài)出現(xiàn)。推薦性標(biāo)準(zhǔn)在《中華人民共和國標(biāo)準(zhǔn)化法》中的定位為非強(qiáng)制性:“供社會(huì)自愿采用”“鼓勵(lì)采用推薦性標(biāo)準(zhǔn)”。但是在實(shí)踐中非強(qiáng)制性的推薦性標(biāo)準(zhǔn)常被作為技術(shù)評(píng)估、行政審查、行政監(jiān)管、合同解釋的重要參考依據(jù),同時(shí)在人工智能領(lǐng)域已經(jīng)成為彌合立法滯后、引導(dǎo)產(chǎn)業(yè)合規(guī)的重要工具。但是,由于推薦性標(biāo)準(zhǔn)本身的法律性質(zhì)定位與實(shí)際產(chǎn)生的約束性效果存在明顯不對(duì)應(yīng)的情況,也容易引起依據(jù)推薦性標(biāo)準(zhǔn)執(zhí)法合法性不足、企業(yè)權(quán)利救濟(jì)空間不清晰以及行政執(zhí)法的不確定性上升等種種疑問。
(二)權(quán)利義務(wù)具體化的倫理價(jià)值共治
歐盟、美國與中國在人工智能治理上的法律邏輯和實(shí)踐路徑展現(xiàn)出明顯差異,既反映了各國法治傳統(tǒng)和社會(huì)價(jià)值觀的不同,也突顯了算法歧視治理中面臨的共同挑戰(zhàn),即如何在鼓勵(lì)技術(shù)創(chuàng)新、維護(hù)社會(huì)公平與保障個(gè)體權(quán)利之間尋求動(dòng)態(tài)平衡。另外,數(shù)據(jù)隱私的治理還與一國的產(chǎn)業(yè)發(fā)展息息相關(guān)。學(xué)者認(rèn)為即使在歐盟和美國之間,對(duì)數(shù)據(jù)隱私的監(jiān)管領(lǐng)域?qū)嶋H已經(jīng)出現(xiàn)了巴爾干化現(xiàn)象。數(shù)據(jù)隱私監(jiān)管的巴爾干化是指不同司法管轄區(qū)的數(shù)據(jù)隱私法律的碎片化,導(dǎo)致復(fù)雜的、不一致的監(jiān)管格局。這種現(xiàn)象的特征是缺乏統(tǒng)一的數(shù)據(jù)隱私監(jiān)管方法,從而形成了一套各不相同的規(guī)則體系,這些規(guī)則在不同地區(qū)或國家之間存在差異。強(qiáng)行移植相關(guān)的規(guī)則可能導(dǎo)致與一國社會(huì)發(fā)展脫節(jié)的嚴(yán)重后果。例如,GDPR和《加州消費(fèi)者隱私法案》(California Consumer Privacy Act,以下簡(jiǎn)稱“CCPA”)在數(shù)據(jù)隱私保護(hù)的具體措施上存在顯著差異。GDPR要求“擇入機(jī)制”(opt-in),而CCPA則允許采用“擇出機(jī)制”(opt-out)。不同的制度設(shè)計(jì)為產(chǎn)業(yè)發(fā)展帶來了不同的成本,也引導(dǎo)著產(chǎn)業(yè)的區(qū)域化布局。GDPR和CCPA都引入了數(shù)據(jù)可攜權(quán),但GDPR更強(qiáng)調(diào)數(shù)據(jù)主體的權(quán)利,而CCPA則更注重企業(yè)與消費(fèi)者之間的經(jīng)濟(jì)關(guān)系。數(shù)據(jù)隱私監(jiān)管的碎片化不僅涉及法律的復(fù)雜性,還涉及公共和私人權(quán)力之間的權(quán)力分配。例如,GDPR通過“問責(zé)制”原則,將部分監(jiān)管責(zé)任轉(zhuǎn)移給私人企業(yè),而美國則更依賴于市場(chǎng)機(jī)制和消費(fèi)者選擇。不同的治理模式背后折射的是治理倫理的差異。換句話說,規(guī)制路徑并沒有對(duì)錯(cuò)之分,只有適履之別,個(gè)人權(quán)利保護(hù)和對(duì)自由競(jìng)爭(zhēng)的偏好體現(xiàn)出不同國家及地區(qū)的歷史傳統(tǒng)及倫理底色,而這種倫理底色又在以各種形式重塑著該地區(qū)的產(chǎn)業(yè)生態(tài)。
中國的人工智能治理強(qiáng)調(diào)在整體公共利益框架下保護(hù)個(gè)人權(quán)利。這種路徑反映出中國法治體系中長期存在的集體主義取向與國家主導(dǎo)治理傳統(tǒng),即個(gè)體權(quán)利保護(hù)始終嵌入國家安全、社會(huì)穩(wěn)定、公共秩序等更宏觀目標(biāo)之中。近年來的《個(gè)人信息保護(hù)法》《數(shù)據(jù)安全法》《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》等法律和規(guī)章,雖引入了類似歐盟的數(shù)據(jù)保護(hù)機(jī)制,但在落地實(shí)施中更重視政府監(jiān)管、產(chǎn)業(yè)政策協(xié)調(diào)和整體風(fēng)險(xiǎn)管理。這種平衡路徑的優(yōu)勢(shì)在于靈活性較強(qiáng),能夠在國家戰(zhàn)略目標(biāo)與個(gè)體權(quán)益之間作動(dòng)態(tài)調(diào)整。我國的整體風(fēng)險(xiǎn)管理的考量極具中國特色,具有強(qiáng)烈的人文主義色彩。2021年出臺(tái)的《互聯(lián)網(wǎng)信息服務(wù)算法推薦管理規(guī)定》是我國算法治理的里程碑文件,其中明確要求算法不得利用算法模型對(duì)用戶進(jìn)行不合理差別對(duì)待、不得誘導(dǎo)沉迷或?qū)嵤┎徽?dāng)競(jìng)爭(zhēng)。盡管該規(guī)定面向全行業(yè),但對(duì)外賣平臺(tái)特別提出了“向用戶明確標(biāo)識(shí)算法推薦服務(wù)”的義務(wù),為后續(xù)騎手保護(hù)措施提供了重要法律依據(jù)。
更具針對(duì)性的是,人力資源和社會(huì)保障部、國家發(fā)展改革委等七部門于2021年聯(lián)合發(fā)布的《關(guān)于維護(hù)新就業(yè)形態(tài)勞動(dòng)者勞動(dòng)保障權(quán)益的指導(dǎo)意見》,針對(duì)平臺(tái)企業(yè)提出不得通過用工外包、制定不合理考核指標(biāo)、利用算法規(guī)則等方式損害勞動(dòng)者權(quán)益。該意見要求外賣、快遞等行業(yè)的互聯(lián)網(wǎng)平臺(tái)優(yōu)化訂單分配、報(bào)酬支付、工作時(shí)間安排等算法規(guī)則,避免對(duì)騎手形成過高強(qiáng)度和不公平待遇,強(qiáng)化了對(duì)算法治理的勞動(dòng)法嵌入。我國對(duì)于人工智能治理的關(guān)切不僅僅聚焦在個(gè)體的信息權(quán)益保障,更多是作為社群的共生性的倫理理念貫穿其中。外賣騎手問題成為算法規(guī)制實(shí)踐的典型案例,不僅體現(xiàn)了對(duì)新業(yè)態(tài)勞動(dòng)關(guān)系的回應(yīng),也展示了我國算法治理中公共政策導(dǎo)向與行業(yè)治理相結(jié)合的特色路徑。
(三)國家安全視角下的人工智能治理
美國的人工智能治理逐漸呈現(xiàn)出偏重國家安全化趨勢(shì),尤其是在與中國的科技競(jìng)爭(zhēng)背景下,這一趨勢(shì)表現(xiàn)得尤為明顯。美國在缺乏聯(lián)邦層面統(tǒng)一人工智能立法的情況下,主要通過出口管制、投資審查、供應(yīng)鏈安全、科技制裁等國家安全工具來應(yīng)對(duì)人工智能技術(shù)帶來的風(fēng)險(xiǎn)。這一路徑的本質(zhì)邏輯是防御性,即通過將人工智能納入國家安全范疇,強(qiáng)化對(duì)外部威脅的警惕與防范。與歐盟的權(quán)利路徑相比,美國的國家安全路徑具有更為明顯的擴(kuò)張性和彈性。一旦國家安全被確立為治理的核心框架,就難以為其劃定清晰邊界,極易引發(fā)技術(shù)封鎖、產(chǎn)業(yè)保護(hù)和國際合作的系統(tǒng)性崩解。此外,由于國際法對(duì)國家安全例外條款缺乏有效約束(例如WTO框架下的GATT第21條多次被架空),美國的國家安全化路徑在全球范圍內(nèi)往往表現(xiàn)為對(duì)話的封閉化和治理的單邊化。
(四)三重治理維度分析
從產(chǎn)品責(zé)任、倫理價(jià)值規(guī)范與國家安全三重視角考察,人工智能的標(biāo)準(zhǔn)化治理在歐盟、美國和中國分別呈現(xiàn)出個(gè)人權(quán)利主導(dǎo)、國家安全主導(dǎo)與權(quán)利平衡主導(dǎo)的三種路徑。
歐盟路徑的優(yōu)勢(shì)在于邊界清晰、權(quán)利保障強(qiáng),但缺乏靈活性和組織權(quán)利調(diào)節(jié)機(jī)制,在其治理中將保障產(chǎn)品與系統(tǒng)安全作為維護(hù)個(gè)人信息權(quán)利的手段;美國路徑則強(qiáng)化防御性國家安全治理,但易引發(fā)治理擴(kuò)張與國際對(duì)話失效;中國路徑的優(yōu)勢(shì)在于動(dòng)態(tài)平衡,從群體性倫理的視角實(shí)現(xiàn)整體利益的最大化,但對(duì)國家組織協(xié)調(diào)能力要求較高。從本質(zhì)上看,歐盟以分級(jí)分類制度落實(shí)人權(quán)保護(hù),美國則以多重要素的場(chǎng)景化評(píng)估支撐其去中心化模式,雖有利于科技創(chuàng)新,卻易產(chǎn)生泛安全化傾向。我國在人工智能倫理治理的頂層設(shè)計(jì)上更注重行業(yè)治理,在各行業(yè)內(nèi)部梳理人工智能可能產(chǎn)生的風(fēng)險(xiǎn)并及時(shí)提出應(yīng)對(duì)方案。三種治理路徑各有優(yōu)先目標(biāo),國際人工智能治理的關(guān)鍵在于如何在三者間尋求平衡與融合,推動(dòng)建立既有共同底線又尊重制度多樣性的全球治理架構(gòu)。
三種治理模式的差異在根本上體現(xiàn)為對(duì)安全、倫理與主權(quán)三重價(jià)值的不同排序。為進(jìn)一步說明這三重價(jià)值如何在制度層面相互嵌合與影響,本文以下從三重維度加以分析。
首先,三重維度具有相互覆蓋性。產(chǎn)品安全主要聚焦于人工智能技術(shù)的功能安全與可靠性,例如自動(dòng)駕駛與醫(yī)療人工智能的安全可控性;倫理安全則關(guān)注算法公平、隱私保護(hù)與非歧視性,體現(xiàn)對(duì)社會(huì)價(jià)值的回應(yīng);國家安全維度則將人工智能治理置于更宏觀的框架,涉及國家間的技術(shù)競(jìng)爭(zhēng)、供應(yīng)鏈安全、戰(zhàn)略穩(wěn)定與自主武器系統(tǒng)的發(fā)展。這一層面往往超越單一產(chǎn)品或倫理問題,但也與前兩者重疊,例如一款被廣泛使用的社交平臺(tái)算法,既可能帶來大規(guī)模倫理風(fēng)險(xiǎn),也可能因介入到特殊場(chǎng)合而使得國家政治在安全、功能與制度層面面臨新的風(fēng)險(xiǎn)。三重治理目標(biāo)之間并非涇渭分明,而是存在著復(fù)雜的相互覆蓋關(guān)系。其中一個(gè)目標(biāo)的實(shí)現(xiàn)在某種程度上能促成其他目標(biāo)的實(shí)現(xiàn),同時(shí)這種關(guān)聯(lián)性也并非完全正相關(guān)。開源模型的共享機(jī)制有助于防止壟斷、保障技術(shù)公平,但也可能引發(fā)軍事化濫用風(fēng)險(xiǎn)。將倫理引入人工智能治理往往意味著明明存在更為高效的目標(biāo)實(shí)現(xiàn)方式,但是為了倫理要求而不得不舍近求遠(yuǎn)。這種倫理要求在涉及個(gè)人信息保護(hù)的人工智能應(yīng)用領(lǐng)域尤為強(qiáng)烈。
其次,三維度在治理功能上保持相對(duì)獨(dú)立。產(chǎn)品安全治理的核心任務(wù)是通過法律、標(biāo)準(zhǔn)與技術(shù)審查確保系統(tǒng)的可用性和穩(wěn)健性;倫理安全關(guān)注算法可解釋性與偏見檢測(cè),以確保技術(shù)符合人權(quán)保障與社會(huì)公正;國家安全維度則是主權(quán)國家的核心關(guān)切,集中于人工智能的軍事用途、跨境數(shù)據(jù)流與供應(yīng)鏈依賴等問題,更依賴出口管制、投資審查與國家安全例外條款。三類功能作用層級(jí)不同,因此政策與法律工具的設(shè)計(jì)亦應(yīng)有針對(duì)性。
最后,三者之間需要構(gòu)建起合理的承接關(guān)系,才能為全球治理奠定可操作的共識(shí)基礎(chǔ)。從國際合作實(shí)踐來看,最有可能實(shí)現(xiàn)直接對(duì)話與落地合作的,是基于產(chǎn)品安全層面的治理。例如,國際標(biāo)準(zhǔn)化組織(International Organization for Standardization,ISO)、國際電工委員會(huì)(International Electrotechnical Commission)、國際電信聯(lián)盟(International Telecommunication Union)等機(jī)構(gòu),近年來已就人工智能系統(tǒng)安全性、數(shù)據(jù)質(zhì)量、風(fēng)險(xiǎn)管理等制定了系列技術(shù)標(biāo)準(zhǔn),成為跨國合作的橋梁。這些標(biāo)準(zhǔn)避開倫理與主權(quán)敏感議題,更容易形成多邊共識(shí)。相較之下,倫理安全的文化差異與價(jià)值沖突使全球一致性難以達(dá)成。歐盟在《人工智能法案》中提出的高風(fēng)險(xiǎn)人工智能系統(tǒng)倫理要求,或聯(lián)合國教科文組織發(fā)布的《人工智能倫理建議書》,顯示了區(qū)域?qū)用妫ㄈ鐨W盟)或軟法機(jī)制在推動(dòng)倫理共識(shí)方面的可能性,但要上升為全球共識(shí)仍困難重重。至于國家安全層面,過度強(qiáng)調(diào)科技安全、供應(yīng)鏈控制、軍事競(jìng)爭(zhēng),不僅不利于多邊對(duì)話,還容易使人工智能治理淪為大國博弈和技術(shù)冷戰(zhàn)的延伸。然而,這并不意味著國家安全可以被完全擱置。在極限情境下,如涉及重大軍事對(duì)抗、恐怖主義利用人工智能技術(shù)、國家關(guān)鍵基礎(chǔ)設(shè)施被人工智能驅(qū)動(dòng)的網(wǎng)絡(luò)攻擊等,維護(hù)國家安全依然是不可放棄的底線。雖然歐盟的《人工智能法案》采取分級(jí)分類的思路通過封閉列舉的方式界定高風(fēng)險(xiǎn)與禁用場(chǎng)景,但是由于剛性分類本身的邏輯結(jié)構(gòu)使其難以及時(shí)回應(yīng)技術(shù)迭代帶來的新型風(fēng)險(xiǎn)。另外,場(chǎng)景設(shè)定過于依賴既有經(jīng)驗(yàn),難以覆蓋如衛(wèi)星圖像人工智能識(shí)別等邊緣性軍民融合技術(shù)。同時(shí),單一的分級(jí)分類制度難以對(duì)各領(lǐng)域的問題做細(xì)化回應(yīng),還有賴于具體場(chǎng)景之下的風(fēng)險(xiǎn)評(píng)估制度加以完善。
五
完善我國的治理路徑
產(chǎn)品安全、倫理安全與國家安全三重維度構(gòu)成了人工智能治理的基本結(jié)構(gòu),不同法域正是因其在三重價(jià)值間的排序差異而形成了不同的制度路徑。相較而言,中國的人工智能治理更具體系化與整合性特征。其制度設(shè)計(jì)并非在三重維度中擇一取向,而是在風(fēng)險(xiǎn)防控、價(jià)值引導(dǎo)與安全保障之間尋求動(dòng)態(tài)平衡,從而形成兼具規(guī)范性與戰(zhàn)略性的治理體系。由此,探討中國的治理路徑,不僅是分析一國經(jīng)驗(yàn),更是對(duì)如何在多重價(jià)值目標(biāo)之間實(shí)現(xiàn)制度銜接的考量。中國的人工智能治理思路著眼于構(gòu)建有層次、可承接的治理結(jié)構(gòu),強(qiáng)調(diào)倫理先行。倫理安全關(guān)系到一國根本的價(jià)值秩序,其規(guī)則植根于社會(huì)文化與法律傳統(tǒng),因此在不同法域中表現(xiàn)出差異。倫理規(guī)制最終仍需回到產(chǎn)品責(zé)任與標(biāo)準(zhǔn)體系的設(shè)計(jì)中,國家安全的考量不僅影響國內(nèi)立法取向,也深刻影響國際經(jīng)貿(mào)關(guān)系與全球技術(shù)秩序的重塑。而國際貿(mào)易格局的重塑終將重塑各國的法律期待,一旦科技深度地嵌入社會(huì),形成相應(yīng)的使用文化,再進(jìn)行矯正就會(huì)十分困難。雖然我國一直采取積極采用國家標(biāo)準(zhǔn)的態(tài)度,并穩(wěn)步擴(kuò)大標(biāo)準(zhǔn)的制度型開放,但是在采用國際技術(shù)標(biāo)準(zhǔn)之時(shí)依然要考慮到該標(biāo)準(zhǔn)與我國目前立法及強(qiáng)制性標(biāo)準(zhǔn)體系是否存在沖突,以及是否符合我國相關(guān)行業(yè)的規(guī)劃及產(chǎn)業(yè)政策,同時(shí)將標(biāo)準(zhǔn)落地后的預(yù)期經(jīng)濟(jì)效益、社會(huì)效益及生態(tài)效益進(jìn)行多維度的綜合性考察。因此,標(biāo)準(zhǔn)的治理絕不僅僅是單一產(chǎn)品質(zhì)量維度的問題而是一項(xiàng)需要將倫理治理及國家安全進(jìn)行通盤考察的體系化建設(shè)。
對(duì)于人工智能治理而言,最初階的倫理共識(shí)應(yīng)當(dāng)聚焦于是與否的問題決斷之上,不應(yīng)糾結(jié)于倫理嵌入各國立法的程度與方式,即聚焦于人工智能對(duì)于人類整體利益的沖擊及程序透明化的保障。這些更為精細(xì)化的倫理嵌入型設(shè)計(jì)應(yīng)當(dāng)是區(qū)域性對(duì)話及協(xié)議應(yīng)當(dāng)完成的目標(biāo)。習(xí)近平主席強(qiáng)調(diào)堅(jiān)持“以人為本”,意在警示技術(shù)發(fā)展不能偏離人類文明進(jìn)步的方向。這一理念倡議各方以增進(jìn)人類共同福祉為目標(biāo),以保障社會(huì)安全、尊重人類權(quán)益為前提,確保人工智能始終朝著有利于人類文明進(jìn)步的方向發(fā)展。我國近年來在全球人工智能治理議題中積極發(fā)聲,明確主張人工智能的發(fā)展應(yīng)當(dāng)服務(wù)于全人類的共同利益。在《全球人工智能治理倡議》中,我國強(qiáng)調(diào)人工智能技術(shù)應(yīng)堅(jiān)持“智能向善”的價(jià)值導(dǎo)向。這一主張不僅體現(xiàn)了對(duì)技術(shù)倫理的高度重視,也彰顯了我國對(duì)構(gòu)建公正合理的國際科技治理體系的責(zé)任擔(dān)當(dāng)。具體而言,“智能向善”的宗旨要求人工智能發(fā)展必須符合和平、發(fā)展、公平、正義、民主、自由等全人類共同價(jià)值,防止人工智能被濫用于危害人類尊嚴(yán)、加劇社會(huì)不平等或擾亂國際秩序的用途。該倡議從倫理原則、制度機(jī)制、技術(shù)路徑等多個(gè)維度呼吁全球協(xié)同治理,試圖為構(gòu)建兼顧國家利益與全球公共利益的人工智能治理體系提供中國方案與制度貢獻(xiàn)。
在涉及國家安全的議題上,則應(yīng)在承認(rèn)主權(quán)底線的前提下,探索建立危機(jī)管理、風(fēng)險(xiǎn)溝通機(jī)制,防止因過度安全化而破壞整體對(duì)話空間。這一多層承接式治理框架不僅是理論上的需要,也是現(xiàn)實(shí)國際政治與技術(shù)發(fā)展格局的必然要求。雖然國家安全也是人工智能需要關(guān)注的領(lǐng)域,而從國家安全角度不斷強(qiáng)化人工智能的軍事化無助于國際治理,其底層邏輯也必然宣示著國際合作的失效。因此,其只能作為托底性的規(guī)制,不可將其常規(guī)性地使用于體系之中。我國目前已經(jīng)建立了人工智能算法與大模型備案機(jī)制,探索建立算法安全評(píng)估制度將成為下一個(gè)階段的工作重點(diǎn),設(shè)立領(lǐng)域?qū)虻摹胺旨?jí)分類”制度,將人工智能按技術(shù)屬性、使用場(chǎng)景、涉眾程度分為軍用、軍民兩用、關(guān)鍵基礎(chǔ)設(shè)施、一般商業(yè)等類型,分別設(shè)定進(jìn)入門檻與監(jiān)管強(qiáng)度。其次,在該分級(jí)分類制度基礎(chǔ)上嵌入風(fēng)險(xiǎn)評(píng)估機(jī)制,針對(duì)各類場(chǎng)景設(shè)立差異化的合規(guī)評(píng)估標(biāo)準(zhǔn),引入第三方評(píng)估機(jī)制,實(shí)現(xiàn)從靜態(tài)許可到動(dòng)態(tài)監(jiān)管的轉(zhuǎn)化。構(gòu)建軍民兩用審查機(jī)制,對(duì)具有潛在軍用價(jià)值的人工智能項(xiàng)目實(shí)行前置備案、出口限制、共享管控等措施,進(jìn)一步完善軍民兩用人工智能的管控機(jī)制。在對(duì)方向的認(rèn)同之上從產(chǎn)品安全入手,利用技術(shù)標(biāo)準(zhǔn)、行業(yè)規(guī)則搭建最小共識(shí);在此基礎(chǔ)上,逐步向區(qū)域性協(xié)議、軟法工具過渡,形成更高階的價(jià)值對(duì)話與合作框架。
從產(chǎn)品安全的角度切入具有可操作性,理論上可以國際標(biāo)準(zhǔn)化組織牽頭以制定人工智能安全標(biāo)準(zhǔn)的方式進(jìn)行規(guī)制。由于不同文化對(duì)技術(shù)相關(guān)風(fēng)險(xiǎn)和責(zé)任感知存在系統(tǒng)性差異,此種方式只能在社會(huì)生產(chǎn)水平差異不大的區(qū)域之間達(dá)成。另外,不應(yīng)在絕對(duì)安全性意義上來理解科技設(shè)施的安全性,只能將其目標(biāo)限縮到社會(huì)能承受的風(fēng)險(xiǎn)。目前,大部分全球南方國家的首要要求是發(fā)展振興,因此,全球人工智能標(biāo)準(zhǔn)全球一體化的設(shè)想并不現(xiàn)實(shí)。實(shí)際上,全球南方國家能否有效參與標(biāo)準(zhǔn)治理,直接關(guān)系到全球人工智能倫理與安全秩序的構(gòu)建。產(chǎn)品治理邏輯能較為簡(jiǎn)易地達(dá)成共識(shí)形成共治,人工智能治理的共識(shí)構(gòu)建首先體現(xiàn)在產(chǎn)品標(biāo)準(zhǔn)的規(guī)則層面。以WTO《技術(shù)性貿(mào)易壁壘協(xié)定》(Agreement on Technical Barriers to Trade)為核心的國際標(biāo)準(zhǔn)體系,已通過貿(mào)易、認(rèn)證與政府采購等機(jī)制實(shí)現(xiàn)了事實(shí)上的準(zhǔn)法律化運(yùn)作,使標(biāo)準(zhǔn)成為市場(chǎng)準(zhǔn)入與全球競(jìng)爭(zhēng)秩序的重要基礎(chǔ)。然而,現(xiàn)有體系內(nèi)部存在顯著的不平衡結(jié)構(gòu)。ISO等主要國際組織在議題設(shè)置、程序設(shè)計(jì)及成員代表性方面仍體現(xiàn)出制度性偏向,發(fā)展中成員雖在數(shù)量上不斷增加,但在技術(shù)話語權(quán)、文件起草及投票決策等關(guān)鍵環(huán)節(jié)仍處于弱勢(shì)地位。由此導(dǎo)致倫理、安全等具有價(jià)值取向與制度導(dǎo)向特征的議題,往往被邊緣化于技術(shù)規(guī)則的外圍。面對(duì)這一結(jié)構(gòu)性困境,全球南方國家需要在既有國際框架內(nèi)拓展實(shí)質(zhì)參與的空間,一方面通過積極參與ISO等機(jī)制強(qiáng)化程序透明度與能力建設(shè),提升規(guī)范供給能力;另一方面以區(qū)域合作與互認(rèn)機(jī)制為依托,推動(dòng)標(biāo)準(zhǔn)成果的制度化吸收與實(shí)踐化落地,使國際規(guī)則從文本共識(shí)轉(zhuǎn)化為可執(zhí)行的制度安排。如此,方能在技術(shù)規(guī)則、倫理秩序與安全治理的交織中,形成既具共識(shí)性又具主體性的全球人工智能標(biāo)準(zhǔn)治理格局。各國根據(jù)自己的立法及傳統(tǒng)模式各自探索出適合自己的治理模式,實(shí)際已經(jīng)套嵌了某種更為精細(xì)的倫理價(jià)值,正如同各國的立法中多多少少已經(jīng)存在有各自特色的倫理性立法一樣。人工智能的倫理價(jià)值不僅體現(xiàn)于對(duì)人類尊嚴(yán)、隱私與公平的普遍關(guān)切,也應(yīng)體現(xiàn)對(duì)各國法律傳統(tǒng)與文化差異的尊重。全球治理應(yīng)以包容多元、尊重差異為前提,通過本土制度間的銜接形成具有合法性與可行性的倫理框架,從而在維護(hù)治理秩序穩(wěn)定的同時(shí),有效應(yīng)對(duì)人工智能在軍事濫用、認(rèn)知操控等領(lǐng)域的風(fēng)險(xiǎn)。
人工智能的迅猛發(fā)展正促使法律體系從靜態(tài)規(guī)范走向動(dòng)態(tài)風(fēng)險(xiǎn)治理。產(chǎn)品責(zé)任奠定了安全與可預(yù)期性的制度底線,倫理價(jià)值提供了社會(huì)信任與公平正義的規(guī)范支撐,國家安全則確保技術(shù)進(jìn)步不偏離公共利益與國家利益的總體方向。三者的互動(dòng)標(biāo)志著人工智能治理正由單一規(guī)制模式邁向系統(tǒng)化、層級(jí)化的制度格局。人工智能治理的核心命題,不在于如何限制技術(shù),而在于如何在法的框架下重構(gòu)人與技術(shù)的關(guān)系。法律的任務(wù)不再止于事后救濟(jì),而在于通過制度引導(dǎo)與標(biāo)準(zhǔn)化機(jī)制,將風(fēng)險(xiǎn)防控、倫理約束與創(chuàng)新激勵(lì)納入同一治理體系。未來的國際人工智能治理應(yīng)當(dāng)以倫理先行為共識(shí),以標(biāo)準(zhǔn)互認(rèn)為抓手,在尊重制度差異的前提下形成最低限度的合作基礎(chǔ)。中國方案的獨(dú)特價(jià)值在于,以責(zé)任體系為路徑、以倫理平衡為導(dǎo)向、以安全共治為邊界,實(shí)現(xiàn)了從制度移植到規(guī)范自覺的轉(zhuǎn)化。它不僅回應(yīng)了技術(shù)治理的現(xiàn)實(shí)需求,也為全球人工智能治理提供了制度性整合的中國方案。
-向上滑動(dòng),查看完整目錄-
《中外法學(xué)》2025年第6期目錄
【代表作】
1.法學(xué)知識(shí)生產(chǎn)的動(dòng)力學(xué)原理
宋亞輝
【數(shù)字法治】
2.法定職責(zé)作為國家機(jī)關(guān)處理個(gè)人信息的邊界
鄭春燕
3.數(shù)據(jù)財(cái)產(chǎn)權(quán)與個(gè)人信息權(quán)益的沖突與調(diào)適
鞏姍姍
4.人工智能國際治理的三重維度
——產(chǎn)品責(zé)任、倫理價(jià)值與國家安全
萬方
【專論】
5.論《憲法》第56條作為稅收法定條款
——基于1954年憲法草案(初稿)的分析
陳寒非
6.行政訴訟程序空轉(zhuǎn)檢察監(jiān)督的邏輯展開
鄭雅方
7.預(yù)備行為實(shí)行化的立法根據(jù)與解釋規(guī)則
王俊
8.刑法、社會(huì)與功能主義
——雅各布斯學(xué)術(shù)思想評(píng)析
王鋼
9.越權(quán)代表的“意思與表示不一致”理論
張保紅
10.非婚同居財(cái)產(chǎn)關(guān)系的處理規(guī)則
——兼評(píng)《婚姻家庭編解釋(二)》第4條
夏江皓
11.親子法一元模式及其理論基礎(chǔ)之反思
——兼論我國《民法典》第1071條和第1127條之適用
鐘瑞華
12.賠償性消費(fèi)民事公益訴訟的訴權(quán)配置
吳俊
13.證據(jù)法體系問題與體系化路徑檢討
樊傳明
14.國際條約作準(zhǔn)中文本的確定及其法律意義
孫世彥
《中外法學(xué)》由北京大學(xué)主辦,創(chuàng)刊于1989年,作為學(xué)院派同仁刊物,堅(jiān)持“恪守學(xué)術(shù)”的辦刊理念與“注重法理”的用稿標(biāo)準(zhǔn)。提倡“法理研究的部門法化”、“部門法研究的體系化”、“中國問題的法理化”以及“法理研究視野的全球化”;強(qiáng)調(diào)法學(xué)研究既要“入流”更要“預(yù)流”,來自部門法而超越部門法,具有中國問題意識(shí)而兼具世界的眼光。
點(diǎn)擊進(jìn)入下方小程序
獲取專屬解決方案~
責(zé)任編輯 | 郭晴晴
審核人員 | 張文碩 王曉慧
本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會(huì)及時(shí)刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.