![]()
以下文章來源于政法論壇,作者謝堯雯
生成式人工智能價(jià)值鏈行政監(jiān)管與侵權(quán)責(zé)任的匹配
謝堯雯
( 中國政法大學(xué)法與經(jīng)濟(jì)學(xué)研究院副教授)
[摘 要]
生成式人工智能價(jià)值鏈具有多主體參與、機(jī)器自主學(xué)習(xí)的特征,法律規(guī)制需要實(shí)現(xiàn)行政監(jiān)管與侵權(quán)責(zé)任的效率匹配。行政監(jiān)管旨在預(yù)防系統(tǒng)性風(fēng)險(xiǎn),為基礎(chǔ)模型研發(fā)者、專業(yè)模型研發(fā)者、服務(wù)提供者設(shè)定基礎(chǔ)行為義務(wù),增強(qiáng)價(jià)值鏈透明度,從而促進(jìn)價(jià)值鏈各主體形成秩序互動(dòng)與協(xié)同治理。行政監(jiān)管設(shè)置的風(fēng)險(xiǎn)預(yù)防規(guī)則將影響侵權(quán)責(zé)任歸責(zé)原則與構(gòu)成要件的判定,侵權(quán)責(zé)任則需要發(fā)揮其獲取場(chǎng)景信息的規(guī)制優(yōu)勢(shì),彌補(bǔ)行政監(jiān)管回應(yīng)科技發(fā)展的制度缺陷。生成式人工智能服務(wù)提供者應(yīng)適用產(chǎn)品責(zé)任,通過完善產(chǎn)品缺陷認(rèn)定實(shí)現(xiàn)侵權(quán)與監(jiān)管的銜接。法院以行政監(jiān)管設(shè)置的績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)為框架,判斷行業(yè)守則與標(biāo)準(zhǔn)是否符合合理技術(shù)設(shè)計(jì)要求,并激勵(lì)行業(yè)層面不斷完善自我規(guī)制、探尋最佳技術(shù)實(shí)踐,實(shí)現(xiàn)軟法與硬法的互動(dòng)。
[關(guān)鍵詞]
生成式人工智能;價(jià)值鏈;行政監(jiān)管;侵權(quán)責(zé)任

一、問題的提出
生成式人工智能技術(shù)蘊(yùn)含著推動(dòng)各行各業(yè)發(fā)展的重大潛力。這一技術(shù)系統(tǒng)基于價(jià)值鏈開展研發(fā)、生產(chǎn)、應(yīng)用活動(dòng),牽涉多個(gè)主體的復(fù)雜互動(dòng)且伴隨機(jī)器自主學(xué)習(xí)。如何為價(jià)值鏈不同主體合理設(shè)定行為義務(wù)以確保系統(tǒng)安全與公正,成為法律規(guī)制難點(diǎn)。行政監(jiān)管與侵權(quán)責(zé)任是約束價(jià)值鏈參與者行為的核心規(guī)制框架,二者有效匹配對(duì)于優(yōu)化人工智能規(guī)制設(shè)計(jì)至關(guān)重要。這一議題在實(shí)踐中亦得到了初步關(guān)注。2024年2月,廣州互聯(lián)網(wǎng)法院在判決中對(duì)生成式人工智能行政監(jiān)管與侵權(quán)責(zé)任關(guān)系作出了初步評(píng)價(jià)。法院在判決說理中明晰,由于被告違反了《生成式人工智能服務(wù)管理暫行辦法》第15條、第4條、第12條,未盡到合理注意義務(wù),因此存在過錯(cuò)。
該判決將“生成式人工智能服務(wù)提供者”違反公法義務(wù)視為侵權(quán)責(zé)任過錯(cuò)評(píng)價(jià)標(biāo)準(zhǔn)之一,這一做法值得審視。一方面,《生成式人工智能服務(wù)管理暫行辦法》與現(xiàn)行法院判決都將責(zé)任主體限定為“生成式人工智能服務(wù)提供者”,并沒有關(guān)注到價(jià)值鏈其他參與者,是否符合技術(shù)邏輯有待深入探討。另一方面,關(guān)于行政監(jiān)管與侵權(quán)責(zé)任之間如何構(gòu)建匹配機(jī)制,違反公法義務(wù)構(gòu)成侵權(quán)過錯(cuò)判斷標(biāo)準(zhǔn)是否會(huì)導(dǎo)致公私法界限模糊,仍有待進(jìn)一步思考。在這一問題意識(shí)下,本文以生成式人工智能價(jià)值鏈技術(shù)邏輯為基礎(chǔ),探討行政監(jiān)管與侵權(quán)責(zé)任如何實(shí)現(xiàn)效率匹配。
二、生成式人工智能價(jià)值鏈規(guī)制的核心理念——實(shí)現(xiàn)行政監(jiān)管與侵權(quán)責(zé)任的匹配
生成式人工智能系統(tǒng)價(jià)值鏈具有多主體參與、各主體相互依賴與影響、機(jī)器自主學(xué)習(xí)等特征,這為有效規(guī)制各主體行為、保障技術(shù)系統(tǒng)的安全與公正帶來了挑戰(zhàn)。法律規(guī)制需要綜合考量行政監(jiān)管與侵權(quán)責(zé)任在行為規(guī)制方面的優(yōu)勢(shì)與不足,構(gòu)建兩者間的協(xié)調(diào)匹配機(jī)制。
(一)生成式人工智能價(jià)值鏈技術(shù)特征
價(jià)值鏈概念最初用于描述商業(yè)運(yùn)營流程。商業(yè)運(yùn)營中,每項(xiàng)活動(dòng)都涉及將輸入資源轉(zhuǎn)化為有價(jià)值的輸出,上游行動(dòng)者基于線性鏈條逐次將輸出轉(zhuǎn)移至下游行動(dòng)者,進(jìn)而構(gòu)成了一個(gè)由多主體共同參與的價(jià)值創(chuàng)造鏈條。人工智能系統(tǒng)由一系列活動(dòng)和環(huán)節(jié)構(gòu)成,牽涉多主體共同創(chuàng)造價(jià)值,體現(xiàn)了價(jià)值鏈特征。價(jià)值鏈概念所揭示的各主體間復(fù)雜的行為關(guān)系以及價(jià)值累積效應(yīng),成為人工智能法律規(guī)制設(shè)計(jì)必須考量的重要因素,也因此被眾多國家的監(jiān)管機(jī)構(gòu)引入至人工智能的監(jiān)管討論之中。生成式人工智能系統(tǒng)價(jià)值鏈與一般人工智能系統(tǒng)價(jià)值鏈在核心運(yùn)行機(jī)制上是一致的,其主要呈現(xiàn)以下兩大特征。
1.多主體參與
人工智能系統(tǒng)發(fā)展包括如下步驟:?jiǎn)栴}界定,數(shù)據(jù)收集與預(yù)先處理,模型訓(xùn)練,模型再訓(xùn)練,模型測(cè)試與評(píng)估,嵌入軟件,人工智能產(chǎn)品或服務(wù)的部署與使用。每一個(gè)步驟都牽涉諸多主體參與,包括軟件委托方、數(shù)據(jù)收集者、數(shù)據(jù)清洗者、標(biāo)注者、代碼設(shè)計(jì)者、模型調(diào)試者、訓(xùn)練者、產(chǎn)品或服務(wù)運(yùn)營的后臺(tái)操作者、終端使用者等。事實(shí)上,軟件研發(fā)一直是多主體參與的過程,導(dǎo)致責(zé)任歸屬不明,形成“多手問題”(Many Hands Problem)。與傳統(tǒng)軟件相比,人工智能系統(tǒng)涵蓋的數(shù)據(jù)、軟件工具與研發(fā)主體更為多樣化,各參與者間的關(guān)聯(lián)錯(cuò)綜復(fù)雜,彼此高度依賴且影響深遠(yuǎn)。
生成式人工智能系統(tǒng)價(jià)值鏈主要由六個(gè)核心階段組成,每個(gè)階段都會(huì)定期進(jìn)行調(diào)整與優(yōu)化以更好地滿足其他階段的需求。具體階段如下:數(shù)據(jù)收集與訓(xùn)練;模型預(yù)先訓(xùn)練—模型訓(xùn)練者選擇訓(xùn)練數(shù)據(jù)集、模型架構(gòu)、訓(xùn)練算法,并設(shè)定訓(xùn)練過程中的隨機(jī)種子值,以研發(fā)出具有廣泛適用性的基礎(chǔ)模型;模型微調(diào)——對(duì)預(yù)訓(xùn)練模型進(jìn)行調(diào)整,使其在特定領(lǐng)域能夠完成更專業(yè)化任務(wù);模型發(fā)布與系統(tǒng)部署—模型可以以開源形式發(fā)布、供公眾使用與改進(jìn),也可以被嵌入到軟件應(yīng)用中進(jìn)行部署,還可以直接與用戶交互生成內(nèi)容;內(nèi)容生成—系統(tǒng)根據(jù)用戶輸入生成內(nèi)容;模型對(duì)齊—整合人類反饋數(shù)據(jù)和強(qiáng)化學(xué)習(xí)算法對(duì)模型進(jìn)行更新與優(yōu)化,以確保模型輸出符合預(yù)設(shè)的特定偏好或標(biāo)準(zhǔn)。
2.機(jī)器自主學(xué)習(xí)
人工智能系統(tǒng)以機(jī)器學(xué)習(xí)技術(shù)為核心,它不是一個(gè)具體產(chǎn)品或者一次性服務(wù),而是以數(shù)據(jù)為導(dǎo)向、與環(huán)境進(jìn)行動(dòng)態(tài)交互的“技術(shù)—社會(huì)”系統(tǒng)。系統(tǒng)的持續(xù)性發(fā)展以及用戶、研發(fā)者與系統(tǒng)之間的反饋循環(huán),為新風(fēng)險(xiǎn)發(fā)生提供了空間。這表明,即使人工智能系統(tǒng)在某一時(shí)刻被判定為安全,但實(shí)際應(yīng)用仍可能導(dǎo)致模型不穩(wěn)定及性能下降。
(二)行政監(jiān)管與侵權(quán)責(zé)任的效率匹配
從行為規(guī)制視角來看,行政監(jiān)管與侵權(quán)責(zé)任是約束價(jià)值鏈參與者行為的主要規(guī)制框架。行政監(jiān)管旨在于在損害發(fā)生前,設(shè)定統(tǒng)一行為標(biāo)準(zhǔn),并通過責(zé)令改正、警告、罰款、限制或剝奪行為資質(zhì)等一系列公共執(zhí)法方式威懾行為人遵守義務(wù)規(guī)則。侵權(quán)責(zé)任是受害人在損害發(fā)生后提起侵權(quán)訴訟,法院結(jié)合個(gè)案確定行為人是否承擔(dān)賠償責(zé)任。
隨著現(xiàn)代規(guī)制國家不斷發(fā)展,行政法律規(guī)范與民事法律規(guī)范不再是截然區(qū)分的運(yùn)行體系。在公私法界限逐漸模糊背景下,如何鏈接行政監(jiān)管與侵權(quán)責(zé)任,構(gòu)成規(guī)制理論與實(shí)踐的重要議題。傳統(tǒng)法教義學(xué)方法從規(guī)則適用角度探討二者關(guān)系。一是探討違反公法規(guī)范是否應(yīng)承擔(dān)侵權(quán)責(zé)任。公法與私法存在不同規(guī)范目標(biāo),前者保護(hù)公共利益,后者保護(hù)個(gè)體民事權(quán)益。若特定的行政法律規(guī)范兼具保護(hù)私人利益的目標(biāo),則構(gòu)成“保護(hù)規(guī)范”,將成為侵權(quán)責(zé)任的評(píng)價(jià)依據(jù)。二是探討公民權(quán)利的公法權(quán)利與私法權(quán)利屬性。如果特定法律條文既保護(hù)公共利益也保護(hù)私人利益,構(gòu)成保護(hù)規(guī)范,則公民據(jù)此享有主觀公權(quán)利,可請(qǐng)求行政主體介入保護(hù)其權(quán)益;如果特定法律條文不構(gòu)成保護(hù)規(guī)范,則公民不得主張公法上的救濟(jì),只能通過向法院提起民事訴訟方式保護(hù)其權(quán)益。
當(dāng)下科技發(fā)展的重要特點(diǎn)是,科技與社會(huì)互相影響、關(guān)系錯(cuò)綜復(fù)雜,公共利益與私人利益難以界分。因此,從規(guī)范保護(hù)目的的規(guī)則適用視角審視行政監(jiān)管與侵權(quán)責(zé)任的關(guān)系,無法為設(shè)計(jì)科技規(guī)制制度提供有價(jià)值的邊際增量。法經(jīng)濟(jì)學(xué)方法以“事前觀點(diǎn)”審視侵權(quán)責(zé)任,即事后損害賠償構(gòu)成對(duì)行為人事前行為的激勵(lì)。在此意義上,侵權(quán)賠償客觀上激勵(lì)了一般社會(huì)主體采取措施預(yù)防損害發(fā)生,促使侵權(quán)機(jī)制在一定程度上發(fā)揮了“設(shè)定行為標(biāo)準(zhǔn)、監(jiān)督與執(zhí)行行為標(biāo)準(zhǔn)”的規(guī)制功能。一直以來,法經(jīng)濟(jì)學(xué)從行為效率規(guī)制視角尋求公私法匹配的理念未得到廣泛推崇。原因在于,在我國強(qiáng)行政監(jiān)管背景下,通過個(gè)案救濟(jì)發(fā)揮司法公共治理職能,不僅會(huì)給資源不足與專業(yè)薄弱的法院帶來訴訟負(fù)擔(dān),亦會(huì)對(duì)社會(huì)主體產(chǎn)生過度威懾效應(yīng),因此理論與實(shí)踐多主張弱化侵權(quán)責(zé)任的行為規(guī)制作用。
人工智能侵權(quán)與傳統(tǒng)侵權(quán)存在顯著區(qū)別,侵權(quán)責(zé)任的制度功能需要從個(gè)體救濟(jì)向公共治理傾斜。一方面,人工智能侵權(quán)是價(jià)值鏈多個(gè)主體共同創(chuàng)造的結(jié)果,且人工智能決策具有黑箱與涌現(xiàn)性特征,使得判斷某一主體行為是否構(gòu)成過錯(cuò)、行為與結(jié)果之間是否具有因果關(guān)系存在困難。另一方面,人工智能侵權(quán)并非傳統(tǒng)的一對(duì)一侵權(quán)或多對(duì)一侵權(quán),其具有大規(guī)模微型侵權(quán)特征,會(huì)導(dǎo)致海量個(gè)體權(quán)益受損。在此背景下,更合理和可行的方式是直接在不同主體之間分配責(zé)任,而不是依賴主觀意志過錯(cuò)和因果關(guān)系來判斷侵權(quán)責(zé)任。事實(shí)上,從工業(yè)化時(shí)代開始,侵權(quán)法就朝著責(zé)任分配方向發(fā)展,責(zé)任設(shè)置亦通常超越直接涉案主體,將社會(huì)保險(xiǎn)、責(zé)任保險(xiǎn)等制度納入分析框架。數(shù)字時(shí)代對(duì)這種責(zé)任分配轉(zhuǎn)變提出了更迫切的需求,這也表明侵權(quán)制度已不再是單純依賴個(gè)案救濟(jì)間接實(shí)現(xiàn)行為規(guī)制,而是通過責(zé)任分配直接承擔(dān)起公共治理的職能。在此背景下,尋求行政監(jiān)管與侵權(quán)責(zé)任在行為規(guī)制層面的匹配機(jī)制,對(duì)于人工智能規(guī)制設(shè)計(jì)至關(guān)重要。
1.以制度比較優(yōu)勢(shì)為基礎(chǔ)明確行政監(jiān)管的必要與目標(biāo)
行政監(jiān)管的優(yōu)勢(shì)在于,監(jiān)管部門可以通過專業(yè)性知識(shí)、規(guī)模化監(jiān)控與多元執(zhí)法手段預(yù)防損害發(fā)生。但在某些情形下,制定行為標(biāo)準(zhǔn)所需的重要信息,是伴隨風(fēng)險(xiǎn)活動(dòng)的開展而生成的附屬品,無法在活動(dòng)發(fā)生前被監(jiān)管者感知并獲取。侵權(quán)責(zé)任的場(chǎng)景信息獲取優(yōu)勢(shì)對(duì)于人工智能效率規(guī)制至關(guān)重要。人工智能技術(shù)帶來的社會(huì)影響更多體現(xiàn)為變革知識(shí)生產(chǎn)方式、個(gè)體生活方式、社會(huì)交互交往形式等價(jià)值性影響。在價(jià)值多元與變動(dòng)的社會(huì)中,科技與社會(huì)是協(xié)同發(fā)展的關(guān)系,事前規(guī)制性規(guī)則試圖通過特定節(jié)點(diǎn)的價(jià)值理念來約束技術(shù)發(fā)展,很容易隨著時(shí)間的推移而喪失其合理性。侵權(quán)責(zé)任待損害發(fā)生后進(jìn)行回應(yīng),將更顯審慎性與針對(duì)性,減小了過度管制、扼制創(chuàng)新的風(fēng)險(xiǎn)。因此,行政監(jiān)管制度設(shè)計(jì)需要明確其必要性與目標(biāo)、限度,為侵權(quán)機(jī)制制定符合場(chǎng)景特征的最優(yōu)風(fēng)險(xiǎn)預(yù)防行為標(biāo)準(zhǔn)預(yù)留空間。
就必要性而言,人工智能價(jià)值鏈存在“多手問題”,而侵權(quán)機(jī)制難以有效獨(dú)立解決。人工智能系統(tǒng)產(chǎn)生的影響,可能源于價(jià)值鏈多環(huán)節(jié)的累積效應(yīng),也可能是某關(guān)鍵環(huán)節(jié)出現(xiàn)問題。因此,控制風(fēng)險(xiǎn)需要多主體協(xié)同行動(dòng),或者由單一主體獨(dú)立采取措施。一方面,如果人工智能系統(tǒng)中各方主體承擔(dān)過錯(cuò)責(zé)任,則每一方主體都可能以其他主體沒有采取更有效的邊際預(yù)防措施為由,主張減免自身責(zé)任。另一方面,如果由人工智能系統(tǒng)中某一方或多方主體承擔(dān)無過錯(cuò)責(zé)任,則該主體將有動(dòng)力通過合同等方式厘清并督促價(jià)值鏈中其他主體實(shí)施預(yù)防措施。然而,鑒于算法的不透明性以及機(jī)器具備自主學(xué)習(xí)特征,承擔(dān)無過錯(cuò)責(zé)任的主體很可能因價(jià)值鏈中其他主體的搭便車行為而難以確保系統(tǒng)安全。而且,無過錯(cuò)責(zé)任還可能使行為主體減少行為量,進(jìn)而扼制創(chuàng)新。就行政監(jiān)管目標(biāo)而言,由于價(jià)值鏈中的每一方參與者都有可能對(duì)最終結(jié)果產(chǎn)生一定程度的影響,事前監(jiān)管應(yīng)當(dāng)為價(jià)值鏈主體設(shè)定基礎(chǔ)行為義務(wù),促使各主體形成秩序互動(dòng)與協(xié)同治理,從而確保技術(shù)系統(tǒng)維系一定程度的安全與公正水平。
2.完善行政監(jiān)管與侵權(quán)責(zé)任的銜接機(jī)制
行政監(jiān)管的必要性與目的得以論證后,接下來的問題是,行政監(jiān)管對(duì)于侵權(quán)責(zé)任的作用是什么,二者如何構(gòu)建銜接機(jī)制。傳統(tǒng)理論認(rèn)為,二者在行為規(guī)制層面存在三種基本銜接方式:規(guī)制性規(guī)范與侵權(quán)機(jī)制部分重合但彼此構(gòu)成獨(dú)立行為評(píng)價(jià)體系,違反了規(guī)制性規(guī)范并不當(dāng)然構(gòu)成侵權(quán)責(zé)任;規(guī)制性規(guī)范厘定了侵權(quán)責(zé)任的基礎(chǔ)框架,侵權(quán)機(jī)制依賴規(guī)制性規(guī)范設(shè)置的風(fēng)險(xiǎn)級(jí)別分配風(fēng)險(xiǎn)預(yù)防責(zé)任,而且違反規(guī)制性規(guī)范將構(gòu)成侵權(quán)過錯(cuò)責(zé)任中的過失;規(guī)制性規(guī)范設(shè)定了細(xì)密、嚴(yán)格的行為標(biāo)準(zhǔn),代表社會(huì)最優(yōu)預(yù)防水平,侵權(quán)機(jī)制在個(gè)案中確定的行為標(biāo)準(zhǔn)不應(yīng)高于規(guī)制性規(guī)范。本文主張第二種銜接方式。人工智能技術(shù)迭代速率日益增進(jìn),法院具有獲取場(chǎng)景信息的優(yōu)勢(shì),能夠在具體個(gè)案中尋求與技術(shù)發(fā)展水平相一致的、符合“預(yù)防成本—技術(shù)效益”效率原則的行為規(guī)制標(biāo)準(zhǔn)。然而,法院欠缺專業(yè)優(yōu)勢(shì),難以在權(quán)衡技術(shù)發(fā)展的社會(huì)影響與預(yù)防措施成本的基礎(chǔ)上獨(dú)立判斷責(zé)任歸屬。因此,行政監(jiān)管規(guī)則應(yīng)當(dāng)成為界分過錯(cuò)責(zé)任與無過錯(cuò)責(zé)任的框架,并作為底線規(guī)則,納入侵權(quán)責(zé)任構(gòu)成要件的考量之中。
其一,根據(jù)行政監(jiān)管規(guī)則來確定侵權(quán)責(zé)任的歸責(zé)原則。侵權(quán)責(zé)任歸責(zé)原則存在過錯(cuò)責(zé)任與無過錯(cuò)責(zé)任兩種基本形式,不同歸責(zé)原則的行為激勵(lì)效果存在區(qū)別。在過錯(cuò)責(zé)任下,法院可以依據(jù)個(gè)案事實(shí)、雙方提供的信息,判定預(yù)防行為投入成本與收益,明確行為人在特定場(chǎng)景中的“適當(dāng)注意水平”。如果法院在判斷行為注意水平方面存在信息弱勢(shì),則可以通過設(shè)定無過錯(cuò)責(zé)任來激勵(lì)潛在侵權(quán)人積極采取預(yù)防措施。在過錯(cuò)責(zé)任下,行為人達(dá)到注意義務(wù)標(biāo)準(zhǔn)后缺乏動(dòng)力進(jìn)行更多預(yù)防投入,由于這一注意義務(wù)標(biāo)準(zhǔn)是由法院加以認(rèn)定的,因此更多體現(xiàn)為一種可被觀測(cè)的“行為注意水平”。同時(shí),過錯(cuò)責(zé)任也激勵(lì)受害人積極預(yù)防損害,實(shí)現(xiàn)風(fēng)險(xiǎn)的雙邊預(yù)防。在無過錯(cuò)責(zé)任下,潛在侵權(quán)人無論是否存在過錯(cuò)都需要對(duì)結(jié)果承擔(dān)責(zé)任,這促使他們投入更多不可觀測(cè)的預(yù)防努力,構(gòu)成風(fēng)險(xiǎn)的單邊預(yù)防機(jī)制。然而,理性經(jīng)濟(jì)人亦不會(huì)過度投入預(yù)防,其會(huì)通過減少行為量來最小化成本支出。
因此,過錯(cuò)責(zé)任與無過錯(cuò)責(zé)任的區(qū)分不僅會(huì)影響預(yù)防主體與成本,還會(huì)進(jìn)一步影響人工智能研發(fā)的數(shù)量,以及使用者與公眾是否應(yīng)當(dāng)監(jiān)督人工智能的使用,這些均與“人工智能技術(shù)不可預(yù)測(cè)性后果應(yīng)由社會(huì)整體還是技術(shù)參與者承擔(dān)”“社會(huì)合理的人工智能應(yīng)用規(guī)模”等重大社會(huì)議題息息相關(guān)。雖然無過錯(cuò)責(zé)任需要以法律明確規(guī)定為前提,但法院在判斷過錯(cuò)責(zé)任時(shí)往往采用寬泛過錯(cuò)標(biāo)準(zhǔn),這使得過錯(cuò)責(zé)任實(shí)質(zhì)上發(fā)揮了類似無過錯(cuò)責(zé)任的行為激勵(lì)效果。法院在通過個(gè)案影響科技發(fā)展重大方向方面,欠缺專業(yè)優(yōu)勢(shì)與民主基礎(chǔ)。鑒于此,有必要通過行政監(jiān)管來制定人工智能技術(shù)風(fēng)險(xiǎn)分級(jí)標(biāo)準(zhǔn),侵權(quán)機(jī)制則依據(jù)風(fēng)險(xiǎn)級(jí)別設(shè)置無過錯(cuò)責(zé)任與過錯(cuò)責(zé)任。對(duì)于高風(fēng)險(xiǎn)人工智能系統(tǒng),采用無過錯(cuò)責(zé)任可激勵(lì)技術(shù)研發(fā)者與使用者積極投入更多不可觀測(cè)的預(yù)防努力,以確保技術(shù)的安全與公正研發(fā)使用,并通過影響行為量的方式逐步控制此類人工智能技術(shù)數(shù)量。對(duì)于低風(fēng)險(xiǎn)人工智能系統(tǒng),則適用過錯(cuò)責(zé)任,由社會(huì)共同承擔(dān)技術(shù)發(fā)展的剩余風(fēng)險(xiǎn),進(jìn)而激發(fā)人工智能技術(shù)的創(chuàng)新活力。
其二,以行政監(jiān)管規(guī)則框定侵權(quán)責(zé)任構(gòu)成要件。為實(shí)現(xiàn)最優(yōu)預(yù)防,行政監(jiān)管設(shè)置的風(fēng)險(xiǎn)預(yù)防規(guī)則將影響侵權(quán)責(zé)任構(gòu)成要件判定,而侵權(quán)責(zé)任亦需要發(fā)揮其場(chǎng)景信息優(yōu)勢(shì),補(bǔ)足行政監(jiān)管回應(yīng)科技發(fā)展的制度缺陷。人工智能行政監(jiān)管規(guī)則通常包括具體行為標(biāo)準(zhǔn)、績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn),不同監(jiān)管規(guī)則在影響侵權(quán)責(zé)任構(gòu)成要件方面存在區(qū)別。一方面,具體行為標(biāo)準(zhǔn)規(guī)定價(jià)值鏈主體應(yīng)當(dāng)或禁止采用的技術(shù)標(biāo)準(zhǔn)或行為措施,違反該標(biāo)準(zhǔn)將被認(rèn)定為存在過錯(cuò)。人工智能侵權(quán)存在因果關(guān)系認(rèn)定難題,價(jià)值鏈各主體行為均增加了損害發(fā)生的可能性,但難以判斷這些行為對(duì)結(jié)果的促成是否具有相當(dāng)性。為應(yīng)對(duì)大規(guī)模侵權(quán),工業(yè)化時(shí)代的因果關(guān)系開始轉(zhuǎn)變?yōu)樨?zé)任判斷,即通過后者反推前者,而非通過前者推論后者。在人工智能侵權(quán)中,這種轉(zhuǎn)變更為必要,侵權(quán)法應(yīng)進(jìn)一步朝著責(zé)任分配方向發(fā)展。因此,一旦違反具體行為標(biāo)準(zhǔn),即可視為增加了損害發(fā)生概率,構(gòu)成過錯(cuò),并應(yīng)當(dāng)承擔(dān)相應(yīng)的侵權(quán)責(zé)任。另一方面,績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)構(gòu)成侵權(quán)責(zé)任鏈接政府監(jiān)管與行業(yè)自治的中介。績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)并不告知價(jià)值鏈主體如何行為的具體標(biāo)準(zhǔn)與方式,而是為其勾勒出大致目標(biāo)與決策框架,留待社會(huì)自我規(guī)制補(bǔ)充規(guī)范細(xì)則。此種規(guī)制方式激勵(lì)科技主體完善自律行為準(zhǔn)則,回應(yīng)了生成式人工智能技術(shù)發(fā)展特征。但是,依賴行業(yè)層面的軟法治理,亦可能導(dǎo)致倫理洗滌、行業(yè)治理逐底競(jìng)爭(zhēng)等問題。在此意義上,侵權(quán)機(jī)制在個(gè)案中通過判定注意標(biāo)準(zhǔn)審查行業(yè)實(shí)踐是否適當(dāng),以此激勵(lì)行業(yè)層面積極完善實(shí)踐標(biāo)準(zhǔn)、推動(dòng)發(fā)現(xiàn)共識(shí),實(shí)現(xiàn)軟法與硬法的有序互動(dòng)。
三、生成式人工智能價(jià)值鏈的行政監(jiān)管
行政監(jiān)管應(yīng)當(dāng)充分發(fā)揮其規(guī)模執(zhí)法和預(yù)防系統(tǒng)性風(fēng)險(xiǎn)的功能,為人工智能價(jià)值鏈主體設(shè)定基礎(chǔ)行為義務(wù),以促進(jìn)價(jià)值鏈各主體之間形成有序的互動(dòng)與協(xié)同治理機(jī)制,從而確保人工智能系統(tǒng)能夠維持在一定的安全與公正水平之上。
(一)人工智能價(jià)值鏈行政監(jiān)管的基本邏輯
“多手問題”并非人工智能系統(tǒng)引發(fā)的新議題,傳統(tǒng)規(guī)制領(lǐng)域積累了解決該問題的制度經(jīng)驗(yàn)。典型如,在產(chǎn)品責(zé)任領(lǐng)域,法律將責(zé)任配置給最有能力控制風(fēng)險(xiǎn)與分散風(fēng)險(xiǎn)的核心主體,以此激勵(lì)核心主體通過合同、自我規(guī)制等方式積極采取行動(dòng),確保其他參與者行為符合法律要求。這種責(zé)任配置理念深刻影響了當(dāng)下人工智能規(guī)制實(shí)踐。在2020年《人工智能白皮書》中,歐盟委員會(huì)提出,為解決人工智能系統(tǒng)多主體參與難題,應(yīng)當(dāng)將責(zé)任配置給最有能力解決相關(guān)問題的主體。然而,白皮書并沒有明確具體哪個(gè)行為者最適合解決何種問題。《人工智能法案》則提出“提供者”(Provider)與“部署者”(Deployer)兩個(gè)定義明確的主體,由他們承擔(dān)主要規(guī)制義務(wù)。
各國人工智能監(jiān)管在認(rèn)定核心主體方面仍在持續(xù)探索,但基本共識(shí)是,將人工智能系統(tǒng)價(jià)值鏈劃分為研發(fā)、生產(chǎn)階段與應(yīng)用階段,并根據(jù)不同階段特征為核心主體設(shè)置公法行為規(guī)范。行政監(jiān)管的核心目標(biāo)是,以核心主體為規(guī)制抓手,推動(dòng)價(jià)值鏈參與者形成秩序互動(dòng)、確保人工智能系統(tǒng)維系一定程度的安全水平。行政監(jiān)管的核心路徑在于,對(duì)研發(fā)生產(chǎn)與應(yīng)用階段的重要風(fēng)險(xiǎn)點(diǎn)實(shí)施風(fēng)險(xiǎn)緩解措施,并建立信息共享機(jī)制,為研發(fā)者或提供者、部署者或使用者進(jìn)行風(fēng)險(xiǎn)緩解提供信息基礎(chǔ)。
其一,研發(fā)與生產(chǎn)階段涉及將何種數(shù)據(jù)、算法、功能嵌入到人工智能系統(tǒng)中,這種“價(jià)值物化”直接決定了人工智能系統(tǒng)的核心性能。研發(fā)者與提供者對(duì)這一過程擁有較高程度控制權(quán),行政監(jiān)管重點(diǎn)在于規(guī)范“算法影響評(píng)估程序”,確保人工智能系統(tǒng)嵌入公平、公正、透明等重要價(jià)值理念。其二,在人工智能應(yīng)用階段,使用者能夠通過調(diào)適使用方式來減小事故發(fā)生概率,這表明人工智能系統(tǒng)產(chǎn)生的損害是一種雙邊事故,即受影響者本身亦對(duì)損害發(fā)生有一定作用力。因此,行政監(jiān)管規(guī)則發(fā)揮了關(guān)系建構(gòu)作用,其通過影響使用者與人工智能系統(tǒng)的互動(dòng)策略,型塑一種秩序化的人機(jī)關(guān)系。規(guī)范人機(jī)交互關(guān)系的核心在于,通過制定使用行為規(guī)范,指導(dǎo)人類使用者合理確定對(duì)人工智能系統(tǒng)的信任。在輔助決策中,信任程度決定了人類在多大程度上采納機(jī)器建議;在替代決策中,信任程度則界定了使用者介入機(jī)器行為的范圍與深度。其三,人工智能價(jià)值鏈各環(huán)節(jié)緊密相連、互相影響,且風(fēng)險(xiǎn)緩解具有疊加性與替代性特征。因此,行政監(jiān)管需要建立信息共享機(jī)制,為核心主體履行義務(wù)提供必要支撐。信息共享至少應(yīng)當(dāng)包括:上游研發(fā)生產(chǎn)者之間的信息共享、上游提供者向下游部署者提供系統(tǒng)性能信息、下游部署者向上游提供者提供系統(tǒng)運(yùn)行信息。
(二)厘定生成式人工智能價(jià)值鏈的核心義務(wù)主體
生成式人工智能系統(tǒng)的研發(fā)生產(chǎn)、商業(yè)運(yùn)營與傳統(tǒng)人工智能系統(tǒng)存在顯著區(qū)別,須結(jié)合具體場(chǎng)景確定核心義務(wù)主體。一方面,生成式人工智能系統(tǒng)的基礎(chǔ)模型并非為特定應(yīng)用場(chǎng)景而研發(fā),且區(qū)別于傳統(tǒng)人工智能系統(tǒng)與模型作為整體研發(fā),其研發(fā)通常獨(dú)立于整體系統(tǒng)。基礎(chǔ)模型對(duì)系統(tǒng)性能具有重要影響,因此有必要對(duì)其進(jìn)行專門規(guī)制。另一方面,基礎(chǔ)模型存在多種部署方式。其一,基礎(chǔ)模型提供者開放應(yīng)用程序接口,形成“模型即服務(wù)”(Maas)產(chǎn)業(yè)生態(tài),向下游部署者提供模型服務(wù)。其二,基礎(chǔ)模型提供者公開發(fā)布模型或其部分元素,其他部署者可根據(jù)許可條件使用或修改模型。其三,基礎(chǔ)模型提供者將模型服務(wù)直接嵌入到網(wǎng)絡(luò)頁面或其他應(yīng)用程序中,向終端用戶提供內(nèi)容生成服務(wù)。
就此而言,生成式人工智能系統(tǒng)的“研發(fā)生產(chǎn)—應(yīng)用”可以劃分為兩種商業(yè)模式:“基礎(chǔ)模型研發(fā)—基礎(chǔ)模型微調(diào)后進(jìn)行服務(wù)供給—終端用戶使用”與“基礎(chǔ)模型研發(fā)—基礎(chǔ)模型垂直部署進(jìn)行服務(wù)供給—終端用戶使用”。就第一種模式而言,研發(fā)生產(chǎn)階段的核心義務(wù)主體應(yīng)確定為基礎(chǔ)模型提供者與專業(yè)模型研發(fā)者;應(yīng)用階段的義務(wù)主體應(yīng)確定為生成內(nèi)容服務(wù)提供者。就第二種模式而言,系統(tǒng)研發(fā)生產(chǎn)階段與應(yīng)用階段的核心主體都是基礎(chǔ)模型提供者。
(三)為生成式人工智能價(jià)值鏈核心主體設(shè)定公法義務(wù)
1.基礎(chǔ)模型提供者應(yīng)當(dāng)履行數(shù)據(jù)公平保障義務(wù)和系統(tǒng)安全保障義務(wù)
基礎(chǔ)模型的訓(xùn)練數(shù)據(jù)與生成結(jié)果之間的關(guān)系,并非僅存在算法黑箱的不可解釋性,在達(dá)到某個(gè)臨界點(diǎn)時(shí),還會(huì)呈現(xiàn)涌現(xiàn)特征。鑒于基礎(chǔ)模型的技術(shù)特征及其對(duì)社會(huì)的強(qiáng)大賦能效應(yīng),規(guī)制重點(diǎn)應(yīng)當(dāng)集中于微觀層面的數(shù)據(jù)保護(hù)與宏觀層面的系統(tǒng)安全。
就數(shù)據(jù)保護(hù)而言,基礎(chǔ)模型研發(fā)要求更大規(guī)模的數(shù)據(jù)訓(xùn)練,構(gòu)建數(shù)據(jù)保護(hù)利益與模型經(jīng)濟(jì)價(jià)值之間的權(quán)衡機(jī)制至關(guān)重要。數(shù)據(jù)處理方式需依據(jù)具體場(chǎng)景由處理者判斷,難以預(yù)設(shè)明確行為標(biāo)準(zhǔn)。因此,行政監(jiān)管應(yīng)制定程序規(guī)則,如個(gè)人信息保護(hù)影響評(píng)估及負(fù)責(zé)人職責(zé)等,通過規(guī)范內(nèi)部管理程序促使研發(fā)者將個(gè)人信息保護(hù)目標(biāo)嵌入數(shù)據(jù)處理程序。就系統(tǒng)安全而言,基礎(chǔ)模型具有通用性,行政監(jiān)管應(yīng)當(dāng)關(guān)注系統(tǒng)安全而非具體場(chǎng)景下的算法影響。當(dāng)前,宜在激勵(lì)相容監(jiān)管理念指引下,對(duì)普通基礎(chǔ)模型進(jìn)行包容審慎監(jiān)管,并對(duì)達(dá)到一定規(guī)模者提出安全保障要求。歐盟已實(shí)施基于風(fēng)險(xiǎn)的分層監(jiān)管,為達(dá)到一定規(guī)模的基礎(chǔ)模型設(shè)定安全標(biāo)準(zhǔn)。核心安全保障機(jī)制為“對(duì)抗測(cè)試”,即驗(yàn)證大模型是否會(huì)產(chǎn)生有害內(nèi)容、不可預(yù)測(cè)的系統(tǒng)局限或者與系統(tǒng)濫用有關(guān)的潛在風(fēng)險(xiǎn)等。法律應(yīng)局限于規(guī)范“對(duì)抗測(cè)試”的基礎(chǔ)程序,激勵(lì)、引導(dǎo)行業(yè)形成符合當(dāng)下最優(yōu)技術(shù)水平的測(cè)試標(biāo)準(zhǔn)。
2.專業(yè)模型研發(fā)者應(yīng)當(dāng)履行算法影響評(píng)估義務(wù)
算法影響評(píng)估根據(jù)不同技術(shù)設(shè)計(jì)可能引致的不同應(yīng)用影響,選擇風(fēng)險(xiǎn)最小、最符合社會(huì)倫理規(guī)范的設(shè)計(jì)模式。相較于傳統(tǒng)人工智能系統(tǒng),生成式人工智能價(jià)值鏈可能存在兩個(gè)研發(fā)階段,如何設(shè)計(jì)影響評(píng)估制度構(gòu)成監(jiān)管挑戰(zhàn)。這也成為歐盟《人工智能法案》立法過程中關(guān)于生成式人工智能規(guī)制最具爭(zhēng)議的議題。2023年6月的草案文本提出,由于基礎(chǔ)模型應(yīng)用必然包含高風(fēng)險(xiǎn)領(lǐng)域應(yīng)用,因此基礎(chǔ)模型提供者需要承擔(dān)高風(fēng)險(xiǎn)人工智能系統(tǒng)提供者義務(wù)。但是,最終法案減輕了基礎(chǔ)模型提供者風(fēng)險(xiǎn)管控負(fù)擔(dān),轉(zhuǎn)由專業(yè)模型研發(fā)者承擔(dān)。專業(yè)模型研發(fā)者基于特定應(yīng)用目標(biāo)訓(xùn)練基礎(chǔ)模型,能夠感知人工智能系統(tǒng)的應(yīng)用場(chǎng)景且控制了用戶界面,對(duì)生成內(nèi)容進(jìn)行了預(yù)先謀劃與控制。因此,從風(fēng)險(xiǎn)控制能力出發(fā),法律要求專業(yè)模型研發(fā)者開展影響評(píng)估符合效率目標(biāo)。事前監(jiān)管應(yīng)確立算法影響評(píng)估核心程序,涵蓋參與者、評(píng)估步驟及記錄要求。實(shí)際操作中,應(yīng)鼓勵(lì)醫(yī)療、心理、法律、金融等專業(yè)應(yīng)用領(lǐng)域制定技術(shù)標(biāo)準(zhǔn)與倫理準(zhǔn)則,指導(dǎo)研發(fā)者進(jìn)行算法影響評(píng)估:將基礎(chǔ)模型部署至具體領(lǐng)域會(huì)產(chǎn)生何種社會(huì)影響,緩解負(fù)面影響的措施是否適當(dāng)?基礎(chǔ)模型部署要解決何種功能性問題,而衡量是否實(shí)現(xiàn)該功能的具體指標(biāo)是什么,為什么選擇該指標(biāo)而非其他指標(biāo)?測(cè)度該指標(biāo)的具體數(shù)據(jù)集是按照何種標(biāo)準(zhǔn)選取的,其收集、維護(hù)、清洗過程是什么,是否體現(xiàn)了現(xiàn)實(shí)決策環(huán)境的完整性?與其他方案相比,該算法決策方案在涉及利益相關(guān)方影響方面是否“中立”,這一結(jié)論是否經(jīng)過測(cè)試和驗(yàn)證?
3.生成式內(nèi)容服務(wù)提供者應(yīng)當(dāng)履行內(nèi)容管控義務(wù)
在具體應(yīng)用階段,生成內(nèi)容造成危害的場(chǎng)景包括用戶與機(jī)器交流場(chǎng)景以及用戶使用傳播場(chǎng)景。前者如,生成內(nèi)容可能侵犯他人著作權(quán)與名譽(yù)權(quán)、錯(cuò)誤虛假信息誤導(dǎo)用戶等。后者如,傳播侵犯他人權(quán)利的內(nèi)容、傳播錯(cuò)誤虛假內(nèi)容、過度依賴生成內(nèi)容減損教育秩序與創(chuàng)作倫理等。法律規(guī)制應(yīng)用階段的核心目標(biāo)是構(gòu)建人機(jī)關(guān)系秩序。生成內(nèi)容由人與機(jī)器共同完成,終端用戶的提問輸入行為與傳播使用行為對(duì)于促成損害結(jié)果至關(guān)重要。行政監(jiān)管應(yīng)當(dāng)規(guī)范終端使用者、內(nèi)容受眾與機(jī)器的交互方式,從而引導(dǎo)他們開展高效的風(fēng)險(xiǎn)預(yù)防行為。當(dāng)前,行政監(jiān)管應(yīng)當(dāng)針對(duì)內(nèi)容服務(wù)提供者,要求其通過規(guī)范“提示”引導(dǎo)用戶輸入,并完善“內(nèi)容標(biāo)識(shí)”來協(xié)調(diào)受眾對(duì)生成內(nèi)容的信任程度。
就“提示”而言,內(nèi)容服務(wù)提供者應(yīng)當(dāng)在技術(shù)上防范用戶惡意誘導(dǎo)生成違法內(nèi)容、引導(dǎo)用戶輸入合理問題,并明確服務(wù)適用情境,引導(dǎo)終端使用者合法合理使用技術(shù)。就“內(nèi)容標(biāo)識(shí)”而言,虛假信息對(duì)公共秩序與個(gè)體權(quán)益的危害不僅源自內(nèi)容本身失真,更在于公眾因不合理信任而形成認(rèn)知與決策偏差;內(nèi)容標(biāo)識(shí)提示生成內(nèi)容來源,助推信息受眾理性審視內(nèi)容可靠性,并檢索更多信息論證生成內(nèi)容是否合理,從而賦能公眾控制生成內(nèi)容對(duì)其認(rèn)知、決策與行為的影響程度。
當(dāng)前,提示監(jiān)管取得較大共識(shí),但內(nèi)容標(biāo)識(shí)監(jiān)管仍待完善。一方面,法律要求的標(biāo)識(shí)范圍與方式并不清晰。內(nèi)容標(biāo)識(shí)制度設(shè)計(jì)應(yīng)當(dāng)平衡技術(shù)發(fā)展與權(quán)益保護(hù),依據(jù)內(nèi)容種類與行業(yè)應(yīng)用,確定顯性標(biāo)識(shí)、隱性標(biāo)識(shí)、提供者主動(dòng)公示標(biāo)識(shí)與提供者依據(jù)申請(qǐng)公示標(biāo)識(shí)的具體適用。另一方面,內(nèi)容標(biāo)識(shí)技術(shù)發(fā)展滯后,法律有待為產(chǎn)業(yè)界提供有效激勵(lì)。為此,法律設(shè)置的內(nèi)容標(biāo)識(shí)公法義務(wù)之核心在于完善合作規(guī)制架構(gòu),一方面建立顯性標(biāo)識(shí)與隱性標(biāo)識(shí)、不同行業(yè)標(biāo)識(shí)要求的基本程序框架,另一方面激勵(lì)產(chǎn)業(yè)層面發(fā)展標(biāo)識(shí)技術(shù),完善生成內(nèi)容檢測(cè)追蹤。
4.增強(qiáng)價(jià)值鏈透明度
人工智能價(jià)值鏈各環(huán)節(jié)緊密相連,核心主體義務(wù)的履行依賴其能夠獲取的信息,行政監(jiān)管亦需要建立一定程度的透明機(jī)制,確保核心主體具有充足信息進(jìn)行風(fēng)險(xiǎn)防控。就生成式人工智能系統(tǒng)而言,這種透明機(jī)制應(yīng)當(dāng)包括上游向下游傳達(dá)信息、下游向上游反饋信息。一方面,基礎(chǔ)模型性能信息對(duì)于專業(yè)模型研發(fā)者進(jìn)行風(fēng)險(xiǎn)管控至關(guān)重要。基礎(chǔ)模型提供者應(yīng)當(dāng)向部署者提供關(guān)鍵開發(fā)步驟、部署環(huán)境配置、模型性能、擴(kuò)展和調(diào)整性能、故障排除、更新維護(hù)以及特定應(yīng)用環(huán)境下的風(fēng)險(xiǎn)警示等信息,賦能部署者充分理解基礎(chǔ)模型的能力與局限,從而在適配下游應(yīng)用時(shí)提升風(fēng)險(xiǎn)管控能力。在此過程中,需妥善平衡技術(shù)信息共享與知識(shí)產(chǎn)權(quán)、商業(yè)秘密保護(hù)的關(guān)系。另一方面,專業(yè)模型研發(fā)者、生成內(nèi)容服務(wù)提供者在具體應(yīng)用場(chǎng)景中發(fā)現(xiàn)的模型風(fēng)險(xiǎn)信息或系統(tǒng)性偏差,亦應(yīng)及時(shí)反饋給基礎(chǔ)模型研發(fā)者,并通過協(xié)議等方式與基礎(chǔ)模型研發(fā)者分配風(fēng)險(xiǎn)緩解責(zé)任。
四、行政監(jiān)管與侵權(quán)責(zé)任的銜接
面對(duì)生成式人工智能技術(shù)的迅速迭代,侵權(quán)機(jī)制的行為規(guī)制作用在于,它能夠在行政監(jiān)管確立的底線規(guī)范基礎(chǔ)上,為價(jià)值鏈主體設(shè)置符合具體場(chǎng)景特征的更高標(biāo)準(zhǔn)的注意義務(wù)。同時(shí),侵權(quán)機(jī)制還具備基礎(chǔ)性的信息生產(chǎn)功能,通過與監(jiān)管的協(xié)作互動(dòng),為監(jiān)管部門不斷發(fā)展規(guī)制規(guī)范提供必要信息支撐。
(一)基于行政監(jiān)管邏輯設(shè)置人工智能侵權(quán)責(zé)任
價(jià)值鏈多元主體與機(jī)器自主學(xué)習(xí)特征,成為了侵權(quán)責(zé)任認(rèn)定難題。一種較為流行觀點(diǎn)認(rèn)為,可以適用代理人責(zé)任或雇主責(zé)任原則,即將人工智能與其管理人之間關(guān)系類比為代理人與被代理人或雇員與雇主的關(guān)系,代理人或雇員的行為后果由被代理人或雇主承擔(dān)。另一種觀點(diǎn)則主張賦予人工智能法律人格以承擔(dān)責(zé)任。然而,人工智能缺乏獨(dú)立人格,不符合代理人責(zé)任、雇主責(zé)任、民事主體責(zé)任的法律構(gòu)成要件。同時(shí),這種責(zé)任設(shè)置也未能充分考慮到價(jià)值鏈存在多元主體的實(shí)際情況。一個(gè)更為可行的方案是,按照價(jià)值鏈行政監(jiān)管的邏輯來設(shè)置侵權(quán)責(zé)任,依據(jù)研發(fā)生產(chǎn)環(huán)節(jié)與應(yīng)用環(huán)節(jié)的區(qū)分,分別為人工智能系統(tǒng)提供者與使用者設(shè)定相應(yīng)的產(chǎn)品責(zé)任和使用責(zé)任。歐盟當(dāng)下侵權(quán)責(zé)任立法動(dòng)態(tài)即體現(xiàn)了這一思路:《產(chǎn)品責(zé)任指令》結(jié)合人工智能技術(shù)特征,拓展“產(chǎn)品”與“損害”的范圍,為人工智能產(chǎn)品提供者設(shè)定產(chǎn)品責(zé)任;《人工智能責(zé)任指令(提案)》則為人工智能使用者與非產(chǎn)品類人工智能提供者設(shè)置過錯(cuò)責(zé)任。基于價(jià)值鏈的研發(fā)生產(chǎn)與應(yīng)用環(huán)節(jié)劃分設(shè)置侵權(quán)責(zé)任,將行政監(jiān)管確定的核心義務(wù)主體及相應(yīng)行為規(guī)范適用于侵權(quán)責(zé)任認(rèn)定,這符合“由能夠以最低成本預(yù)防風(fēng)險(xiǎn)者承擔(dān)責(zé)任”的責(zé)任配置理念,有助于加強(qiáng)行政監(jiān)管與侵權(quán)責(zé)任在行為規(guī)制層面的銜接。
其一,人工智能產(chǎn)品生產(chǎn)者享有更多技術(shù)信息、影響產(chǎn)品設(shè)計(jì)的能力,且有能力通過定價(jià)方式分散風(fēng)險(xiǎn)成本,要求生產(chǎn)者承擔(dān)傳統(tǒng)產(chǎn)品責(zé)任,符合行為激勵(lì)效率。具體制度設(shè)計(jì)的核心要義在于,在個(gè)案中明確“產(chǎn)品缺陷”內(nèi)涵與“風(fēng)險(xiǎn)發(fā)展抗辯”。就“產(chǎn)品缺陷”而言,事前監(jiān)管規(guī)則構(gòu)成底線行為標(biāo)準(zhǔn),法院在具體個(gè)案中綜合技術(shù)發(fā)展水平、技術(shù)收益與風(fēng)險(xiǎn)緩解成本對(duì)比等因素,判斷產(chǎn)品是否存在設(shè)計(jì)缺陷、制造缺陷與警示缺陷。就“風(fēng)險(xiǎn)發(fā)展抗辯”而言,鑒于人工智能系統(tǒng)具有自主學(xué)習(xí)特征,針對(duì)由學(xué)習(xí)產(chǎn)生的不可預(yù)知風(fēng)險(xiǎn),侵權(quán)機(jī)制可以給那些對(duì)個(gè)體權(quán)益與公眾生活產(chǎn)生重要影響的人工智能系統(tǒng)提供者分配更為嚴(yán)格的責(zé)任,從而激勵(lì)提供者增加投入,加強(qiáng)人類對(duì)技術(shù)的控制能力;對(duì)于其他人工智能系統(tǒng),有必要通過引入“風(fēng)險(xiǎn)發(fā)展抗辯”理念,以明確在人工智能系統(tǒng)自主學(xué)習(xí)過程中產(chǎn)生的部分損害,提供者可以享有責(zé)任豁免,從而實(shí)現(xiàn)由整體社會(huì)來承擔(dān)人工智能“剩余風(fēng)險(xiǎn)”的風(fēng)險(xiǎn)分散效果。其二,在人工智能系統(tǒng)應(yīng)用階段,行政監(jiān)管規(guī)則通過要求提供者進(jìn)行信息公示與要求使用者進(jìn)行影響評(píng)估的方式,來規(guī)范人與機(jī)器之間的交互關(guān)系。如果使用者沒有依照提供者提供信息進(jìn)行機(jī)器操作或沒有進(jìn)行影響評(píng)估,且在此過程中造成損害,則當(dāng)然需要承擔(dān)侵權(quán)責(zé)任。對(duì)于構(gòu)成特別高風(fēng)險(xiǎn)的人工智能系統(tǒng),可以通過設(shè)置使用者嚴(yán)格責(zé)任來激勵(lì)其減少行為量;對(duì)于一般人工智能系統(tǒng),則應(yīng)設(shè)置過錯(cuò)責(zé)任,依據(jù)機(jī)器的自動(dòng)化水平、使用者對(duì)機(jī)器的控制能力、前端使用者與機(jī)器后端操作者之間的關(guān)系、使用者采取預(yù)防措施的成本與收益對(duì)比等,在具體場(chǎng)景中調(diào)整使用者注意水平。
(二)為生成式人工智能服務(wù)提供者設(shè)置產(chǎn)品責(zé)任
在實(shí)踐應(yīng)用中,生成式人工智能致人侵害主要包括兩種情形:一是生成式人工智能服務(wù)提供者直接向用戶提供服務(wù)的過程中對(duì)用戶或第三人造成損害;二是用戶利用該系統(tǒng)向第三人提供服務(wù)的過程中或用戶傳播系統(tǒng)生成內(nèi)容,對(duì)第三人造成損害。由此看來,前者侵害源于技術(shù)系統(tǒng)缺陷,應(yīng)當(dāng)適用生產(chǎn)研發(fā)階段責(zé)任,后者侵害源于使用者的使用行為,適用人工智能應(yīng)用責(zé)任。現(xiàn)階段,生成式人工智能侵權(quán)責(zé)任難點(diǎn)在于生產(chǎn)研發(fā)階段責(zé)任,即生成式人工智能服務(wù)提供者責(zé)任。
生成式人工智能系統(tǒng)最初依托互聯(lián)網(wǎng)與用戶對(duì)話生成內(nèi)容,因此,我國監(jiān)管部門一直依賴互聯(lián)網(wǎng)內(nèi)容規(guī)制理念開展制度設(shè)計(jì)。內(nèi)容規(guī)制理念也深刻影響了侵權(quán)責(zé)任探討。既有研究多從“網(wǎng)絡(luò)服務(wù)提供者”與“網(wǎng)絡(luò)內(nèi)容提供者”界分視角,分析生成式人工智能服務(wù)提供者的法律性質(zhì),進(jìn)而探討其對(duì)生成內(nèi)容的民事責(zé)任。但是,網(wǎng)絡(luò)服務(wù)提供者責(zé)任與網(wǎng)絡(luò)內(nèi)容提供者責(zé)任都著重于規(guī)范與用戶直接交互的內(nèi)容輸出端行為,缺乏對(duì)“模型即服務(wù)”商業(yè)模式下模型提供者的行為評(píng)價(jià)。而且,當(dāng)下生成式人工智能技術(shù)既可以作為獨(dú)立軟件,亦可以嵌入至硬件設(shè)備中提供服務(wù),既能應(yīng)用于決策輔助型人工智能場(chǎng)景,也能發(fā)展為替代型人工智能應(yīng)用。在生成式人工智能服務(wù)對(duì)各行各業(yè)賦能的背景下,現(xiàn)有網(wǎng)絡(luò)內(nèi)容侵權(quán)責(zé)任規(guī)則難以回應(yīng)技術(shù)缺陷帶來的負(fù)面影響。
為充分激勵(lì)生產(chǎn)研發(fā)階段的安全預(yù)防投入,一個(gè)更可行的路徑是,生成式人工智能服務(wù)提供者適用產(chǎn)品責(zé)任。但是,產(chǎn)品責(zé)任只適用于產(chǎn)品,排除服務(wù)的適用。生成式人工智能軟件可以被嵌入至產(chǎn)品中,亦可以作為獨(dú)立軟件提供服務(wù),后者可否適用產(chǎn)品責(zé)任不無疑問。解決該問題關(guān)鍵在于,從功能主義視角分析產(chǎn)品責(zé)任適用的制度目標(biāo)。區(qū)分產(chǎn)品與服務(wù)的制度理念在于:產(chǎn)品具有批量生產(chǎn)、規(guī)模銷售的特點(diǎn),生產(chǎn)者可以通過定價(jià)機(jī)制分散風(fēng)險(xiǎn),因此適用嚴(yán)格責(zé)任符合風(fēng)險(xiǎn)最優(yōu)預(yù)防理念;服務(wù)供給具有專業(yè)性與個(gè)性化特征,要求服務(wù)提供者承擔(dān)嚴(yán)格責(zé)任會(huì)減損服務(wù)質(zhì)量,因此服務(wù)提供者更適宜適用過錯(cuò)責(zé)任。生成式人工智能作為一種軟件,具有批量生產(chǎn)、規(guī)模銷售的特點(diǎn),其是面向不特定用戶而非提供一對(duì)一定制化服務(wù)。同時(shí),提供者能通過定價(jià)機(jī)制來分散風(fēng)險(xiǎn),這與產(chǎn)品責(zé)任的制度目標(biāo)相契合。正是基于人工智能時(shí)代軟件服務(wù)的特殊性,歐盟《產(chǎn)品責(zé)任指令》修訂案拓展了“產(chǎn)品”范圍,將獨(dú)立軟件、附加軟件、重要人工智能服務(wù)等數(shù)字服務(wù)納入了“產(chǎn)品”范疇。
作為不真正連帶責(zé)任,產(chǎn)品責(zé)任亦有助于協(xié)調(diào)模型服務(wù)供給者與模型服務(wù)調(diào)用者之間的關(guān)系。因產(chǎn)品缺陷造成損害,被侵權(quán)人既可以向生成式內(nèi)容服務(wù)提供者請(qǐng)求賠償,亦可以向模型服務(wù)提供者請(qǐng)求賠償。生成式內(nèi)容服務(wù)提供者、模型服務(wù)提供者向用戶承擔(dān)責(zé)任后,可以根據(jù)模型卡技術(shù)記錄、模型服務(wù)提供者說明等信息,明確價(jià)值鏈其他主體是否存在不當(dāng)行為并向其追償。
(三)加強(qiáng)產(chǎn)品責(zé)任與行政監(jiān)管的互動(dòng)
通過精細(xì)化的產(chǎn)品責(zé)任制度設(shè)計(jì)可以實(shí)現(xiàn)侵權(quán)責(zé)任與行政監(jiān)管的有序互動(dòng)。通常來說,產(chǎn)品缺陷包括制造缺陷、設(shè)計(jì)缺陷、警示缺陷三種。制造缺陷關(guān)注產(chǎn)品性能和特征,只要產(chǎn)品在物理上偏離既定設(shè)計(jì)就需要承擔(dān)嚴(yán)格責(zé)任。設(shè)計(jì)缺陷與警示缺陷關(guān)注生產(chǎn)者、設(shè)計(jì)者行為的合理性,需要綜合安全、效用、市場(chǎng)需求等多種因素考量,在認(rèn)定上融入了過錯(cuò)責(zé)任的因素。其中,設(shè)計(jì)缺陷的認(rèn)定是生成式人工智能產(chǎn)品責(zé)任的難點(diǎn),亦構(gòu)成撬動(dòng)侵權(quán)與監(jiān)管進(jìn)行效率銜接的關(guān)鍵著力點(diǎn)。
根據(jù)《中華人民共和國產(chǎn)品質(zhì)量法》第46條規(guī)定,缺陷判斷標(biāo)準(zhǔn)包括不合理危險(xiǎn)與技術(shù)標(biāo)準(zhǔn)兩類。技術(shù)標(biāo)準(zhǔn)作為行政監(jiān)管規(guī)則,構(gòu)成缺陷產(chǎn)品認(rèn)定的底線規(guī)則,但如何判斷是否構(gòu)成不合理危險(xiǎn),欠缺明晰標(biāo)準(zhǔn)。歐盟與美國的缺陷判斷標(biāo)準(zhǔn)成為我國司法實(shí)踐的重要參考。歐盟確立了合理期待標(biāo)準(zhǔn),如果產(chǎn)品安全沒有達(dá)到人們的合理期待即存在缺陷。美國確立了風(fēng)險(xiǎn)效用標(biāo)準(zhǔn),強(qiáng)調(diào)對(duì)產(chǎn)品的安全設(shè)計(jì)進(jìn)行成本—收益比較,判斷是否存在更好的替代設(shè)計(jì)。這兩種標(biāo)準(zhǔn)都不符合生成式人工智能技術(shù)特征。就合理期待標(biāo)準(zhǔn)而言,普通消費(fèi)者難以理解生成式人工智能的技術(shù)機(jī)理,往往會(huì)產(chǎn)生不切實(shí)際的期待。就風(fēng)險(xiǎn)效用標(biāo)準(zhǔn)而言,生成式人工智能正經(jīng)歷迅速迭代,而行業(yè)內(nèi)尚未就最佳實(shí)踐達(dá)成共識(shí),因此難以判定何種替代設(shè)計(jì)更為優(yōu)越。這表明,法院在判斷技術(shù)運(yùn)行邏輯、技術(shù)的社會(huì)影響、技術(shù)的社會(huì)選擇方面存在專業(yè)弱勢(shì),應(yīng)當(dāng)依賴行業(yè)知識(shí)形成多元主體技術(shù)共治。就此而言,法院在判斷生成式人工智能是否構(gòu)成設(shè)計(jì)缺陷時(shí),有必要在行政監(jiān)管規(guī)則框架下,綜合考慮行業(yè)自治因素。
生成式人工智能行政監(jiān)管以抽象績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)為主:前者體現(xiàn)為基本目標(biāo)導(dǎo)向要求,如模型訓(xùn)練使用具有合法來源的數(shù)據(jù)和基礎(chǔ)模型,增強(qiáng)訓(xùn)練數(shù)據(jù)的真實(shí)性、準(zhǔn)確性、客觀性、多樣性等,但法律并未給予“合法來源”“真實(shí)、準(zhǔn)確、客觀、多樣”明確界定標(biāo)準(zhǔn);后者體現(xiàn)為程序性要求,如開展影響評(píng)估、對(duì)抗測(cè)試、在發(fā)現(xiàn)違法內(nèi)容后進(jìn)行模型優(yōu)化,但具體的程序步驟與標(biāo)準(zhǔn)仍然非常模糊。行政監(jiān)管設(shè)置的抽象績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)并不告知價(jià)值鏈主體如何行為的具體方式,而是為其勾勒出大致目標(biāo)與決策框架,留待社會(huì)自我規(guī)制補(bǔ)充規(guī)范細(xì)則。就此而言,法院應(yīng)當(dāng)以行政監(jiān)管設(shè)置的抽象績效標(biāo)準(zhǔn)與內(nèi)部管理型標(biāo)準(zhǔn)為框架,在具體個(gè)案中判斷企業(yè)自我規(guī)制是否達(dá)到了合理注意要求。問題關(guān)鍵在于,在行業(yè)共識(shí)尚未統(tǒng)一時(shí),法院如何確定符合合理注意的行業(yè)實(shí)踐?尤其是當(dāng)下,生成式人工智能規(guī)制主要依賴軟法規(guī)范,盡管存在多種倫理原則和技術(shù)指引,但同時(shí)也面臨著倫理洗滌、倫理規(guī)范欠缺執(zhí)行力、行業(yè)間的逐底競(jìng)爭(zhēng)等問題,這為法院評(píng)判行業(yè)實(shí)踐帶來了挑戰(zhàn)。
一方面,生成式人工智能研發(fā)實(shí)踐的重要特征是專業(yè)性,即依賴專業(yè)團(tuán)體的知識(shí)與能力,因此相應(yīng)的合理注意應(yīng)當(dāng)以專業(yè)團(tuán)體的合理注意而非一般理性人的合理注意為標(biāo)準(zhǔn)。一般來說,專業(yè)性合理注意標(biāo)準(zhǔn)包括行業(yè)一般習(xí)慣標(biāo)準(zhǔn)與信義義務(wù)標(biāo)準(zhǔn),前者強(qiáng)調(diào)根據(jù)該領(lǐng)域的一般實(shí)踐來確定合理性,后者強(qiáng)調(diào)專業(yè)團(tuán)體以受托人身份承擔(dān)更高標(biāo)準(zhǔn)的忠實(shí)義務(wù)。行業(yè)一般習(xí)慣標(biāo)準(zhǔn)關(guān)注現(xiàn)有技術(shù)水平下的行業(yè)實(shí)踐,更適合生成式人工智能發(fā)展現(xiàn)狀。原因在于,在技術(shù)發(fā)展高度不確定背景下,負(fù)面結(jié)果是行業(yè)實(shí)踐固有的產(chǎn)物,且技術(shù)實(shí)踐發(fā)展會(huì)自行消納負(fù)面結(jié)果的產(chǎn)生原因。因此,應(yīng)當(dāng)將行業(yè)一般習(xí)慣標(biāo)準(zhǔn)適用于生成式人工智能技術(shù)研發(fā)缺陷判斷,并根據(jù)技術(shù)發(fā)展不斷調(diào)適缺陷判斷標(biāo)準(zhǔn),以此發(fā)揮侵權(quán)機(jī)制場(chǎng)景優(yōu)勢(shì),促使科技穩(wěn)健融入社會(huì)。另一方面,現(xiàn)階段行業(yè)實(shí)踐在生成式人工智能研發(fā)的有效性、安全性、問責(zé)性、可解釋性、公平性等方面仍存在諸多分歧。在共識(shí)難以達(dá)成時(shí),尊重現(xiàn)有技術(shù)水平下的不同實(shí)踐方法比確定單一合理標(biāo)準(zhǔn)更合適。評(píng)估自我規(guī)制是否完善的核心在于內(nèi)部管理程序是否規(guī)范,因此法院亦應(yīng)當(dāng)以程序?yàn)樽ナ郑ㄟ^評(píng)估技術(shù)研發(fā)實(shí)踐所遵從的標(biāo)準(zhǔn)或行為守則的制定程序、技術(shù)研發(fā)的倫理審查程序、該實(shí)踐在行業(yè)內(nèi)的接受程度等,判斷不同實(shí)踐是否達(dá)到合理注意標(biāo)準(zhǔn)。同時(shí),基于行政監(jiān)管確定的風(fēng)險(xiǎn)規(guī)制框架,對(duì)于達(dá)到一定規(guī)模的大模型研發(fā)以及應(yīng)用于高風(fēng)險(xiǎn)領(lǐng)域的生成式人工智能服務(wù),法院應(yīng)當(dāng)適用更嚴(yán)格的缺陷判斷標(biāo)準(zhǔn)。
通過這種方式,侵權(quán)機(jī)制將激勵(lì)行業(yè)層面不斷完善自我規(guī)制、探尋最佳技術(shù)實(shí)踐。同時(shí),對(duì)于法院在個(gè)案中認(rèn)可的達(dá)到高標(biāo)準(zhǔn)的部分實(shí)踐,亦可以推動(dòng)監(jiān)管部門將其轉(zhuǎn)化統(tǒng)一監(jiān)管規(guī)則,以此實(shí)現(xiàn)軟法與硬法的銜接與互動(dòng)。
—— EDN ——
本文來自《政法論壇》2025年第2期。本文章僅限學(xué)習(xí)交流使用,版權(quán)歸原作者所有。
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.