![]()
論我國人工智能領域包容審慎監(jiān)管的法治維度
黃锫
(同濟大學法學院教授)
[摘 要]
包容審慎監(jiān)管已逐步成為我國人工智能領域的主導性監(jiān)管理念。人工智能技術具有的“破壞性創(chuàng)新”特征決定了包容審慎監(jiān)管的法治理念內核。即 “包容性監(jiān)管”主要是為了呵護人工智能的創(chuàng)新性,促進我國人工智能技術與產業(yè)的快速發(fā)展,適用于人工智能發(fā)展中遭遇的法律規(guī)則突破與法律規(guī)則空白兩種情形。“審慎性監(jiān)管”主要是為了應對人工智能的破壞性,防范人工智能發(fā)展中對人的權益侵害的伴生風險,適用于人工智能導致的權益侵害廣度擴張與深度拓展兩種情形。實現包容性監(jiān)管的法治路徑主要包括:通過法律解釋逸脫法律規(guī)則的適用范圍、靈活運用從輕/減輕/不予處罰規(guī)則、設置法定觀察期等。實現審慎性監(jiān)管的法治路徑主要包括:將監(jiān)管沙盒制度與改革試驗區(qū)模式結合運用、依法劃定權益保護的安全。
[關鍵詞]
人工智能立法;破壞性創(chuàng)新;包容審慎監(jiān)管;包容性監(jiān)管;審慎性監(jiān)管

一、人工智能領域包容審慎監(jiān)管的規(guī)范緣起
在我國,包容審慎監(jiān)管的理念最初并非專門針對人工智能領域提出,而主要是為了應對移動互聯網時代出現的新型數字經濟業(yè)態(tài)提出。早在2014至2015年間基于移動互聯網數字平臺的共享單車和網約車一經推出就引發(fā)了城市出行服務領域翻天覆地的變化。之后在日益普及的智能手機的推波助瀾之下,移動互聯網數字平臺服務由城市出行領域不斷拓展到社會生活中衣食住行的各個方面。隨著這種拓展的持續(xù)深入,其形成的社會經濟形態(tài)由最初的分享經濟或稱共享經濟形態(tài),逐步演變?yōu)槠脚_經濟形態(tài),最終形成具有顛覆性意義的數字經濟形態(tài),并在2020年左右成為帶動我國經濟增長的核心動力。
在這種社會經濟背景之下,包容審慎監(jiān)管的理念開始出現。國務院早在《2016年推進簡政放權放管結合優(yōu)化服務改革工作要點》中,就已經明確提出要對新技術、新產業(yè)、新業(yè)態(tài)、新模式探索審慎監(jiān)管,并要求對于一時看不準的基于“互聯網+”和分享經濟的新業(yè)態(tài)應當包容發(fā)展。這一要求主要就是為了應對當時剛剛出現的共享單車和網約車等新業(yè)態(tài),并非專門針對人工智能的發(fā)展。之后,國務院辦公廳在2017年1月發(fā)布的《關于創(chuàng)新管理優(yōu)化服務培育壯大經濟發(fā)展新動能加快新舊動能接續(xù)轉換的意見》中,正式提出要“探索動態(tài)包容審慎監(jiān)管制度”,不過其中也并未直接提及要在人工智能領域應用這一監(jiān)管理念。而在同年7月,國務院發(fā)布了《關于印發(fā)新一代人工智能發(fā)展規(guī)劃的通知》,其中提出要建立“公開透明的人工智能監(jiān)管體系”,實行“設計問責和應用監(jiān)督并重的雙層監(jiān)管結構”,實現“對人工智能算法設計、產品開發(fā)和成果應用等的全流程監(jiān)管”。從這一份關于人工智能發(fā)展的基礎性政策文件來看,國務院尚未將包容審慎監(jiān)管作為人工智能領域的主導性監(jiān)管理念,而是更側重于防范人工智能風險的審慎性監(jiān)管,希望通過“公開透明”“設計問責”“應用監(jiān)督”等措施實現對人工智能的“全流程監(jiān)管”。不過,在應用人工智能技術的一些新型業(yè)態(tài)中,包容審慎監(jiān)管已經初步成為主要的監(jiān)管理念。除了上述共享單車和網約車的新業(yè)態(tài)之外,典型的就是自動駕駛汽車領域。如工業(yè)和信息化部在2018年發(fā)布的《車聯網(智能網聯汽車)產業(yè)發(fā)展行動計劃》中,就已經明確將包容審慎作為智能網聯汽車監(jiān)管的主要原則。
因此,在我國人工智能發(fā)展的初期,監(jiān)管的基本理念并未被界定為包容審慎監(jiān)管,后者更多地被應用于特定新型經濟形態(tài)中。雖然這些新型經濟形態(tài)中可能也會應用一些人工智能的技術(如網約車數字平臺所使用的智能推薦算法、自動駕駛汽車領域使用的人工智能技術等),但是包容審慎監(jiān)管卻并未將人工智能本身作為重點適用的對象。這一點在之后國家層面發(fā)布的一些政策文件及相關規(guī)范性法律文件中也可以看出來。如2019年國務院發(fā)布的《關于加強和規(guī)范事中事后監(jiān)管的指導意見》、國務院辦公廳發(fā)布的《關于促進平臺經濟規(guī)范健康發(fā)展的指導意見》,以及2020年國務院制定的行政法規(guī)《優(yōu)化營商環(huán)境條例》、2022年全國人大常委會修訂實施的《中華人民共和國科學技術進步法》中,都提及了包容審慎監(jiān)管的問題,但也都沒有將人工智能作為包容審慎監(jiān)管的主要適用領域,最多只是將其籠統(tǒng)地包含在“新技術”的范疇內進行監(jiān)管。
更明顯的是,2022年3月國家互聯網信息辦公室聯合多部門頒布實施的《互聯網信息服務算法推薦管理規(guī)定》中也未明確提及包容審慎的監(jiān)管理念。算法推薦技術屬于人工智能技術的重要組成部分(決策式人工智能),因此這一管理規(guī)定實際上可算是人工智能監(jiān)管領域中第一部專門性的部門規(guī)章,是人工智能推薦算法技術的重要監(jiān)管依據。然而,其中卻并沒有提及包容審慎監(jiān)管的理念,更多是通過設定算法推薦服務提供者的義務來防范此類人工智能技術的風險,更偏重于審慎性監(jiān)管。另一部類似的涉人工智能監(jiān)管的部門規(guī)章《互聯網信息服務深度合成管理規(guī)定》也存在同樣的監(jiān)管傾向。
可見,雖然我國人工智能發(fā)展的頂層設計與包容審慎監(jiān)管的理念大致都是在2016—2017年間出現,但是后者卻并未被前者理所當然地采用,直到2022年左右兩者之間都只呈現出若即若離的關聯。這或許是因為,在這一時期人工智能技術并沒有展現出推動經濟社會發(fā)展的強大且現實的能力,只是作為數字時代類似于區(qū)塊鏈、云計算、物聯網、VR/AR、數字孿生等眾多新技術中的一種而受到關注。
轉折點來自2022年11月30日人工智能科技產品ChatGPT的發(fā)布。這種基于生成式人工智能技術的大語言模型應用程序幾乎以一己之力顛覆了傳統(tǒng)上將人工智能約等于人工智障的固有認知,其極為流利且準確的人機自然語言交互能力激發(fā)了將之應用于經濟社會各個領域的無限想象,使人們開始真正相信“人工智能有望在人類體驗的所有領域帶來變革”。之后隨著迭代版本GPT-4、GPT-4Turbo、GPT-4o、OpenAIo1,以及文生視頻大模型Sora的相繼推出,人工智能技術已經越來越明顯地處于數字時代眾多新技術的最前列,成為最有可能引發(fā)新一輪科技革命、推動經濟社會進入全新增長周期的創(chuàng)新科技,也將成為新時期國家間科技競爭的主要區(qū)域。
基于這種宏觀經濟社會背景,包容審慎監(jiān)管理念開始真正融入人工智能領域之中。標志性的事件就是2023年8月國家互聯網信息辦公室聯合多部委頒布實施的《生成式人工智能服務管理暫行辦法》第3條中,將包容審慎監(jiān)管正式作為人工智能大模型監(jiān)管的基本理念,強調要堅持“發(fā)展和安全并重”,將“促進創(chuàng)新和依法治理”相結合,鼓勵人工智能大模型技術的創(chuàng)新發(fā)展。較之于《互聯網信息服務算法推薦管理規(guī)定》《互聯網信息服務深度合成管理規(guī)定》這兩部涉人工智能監(jiān)管的部門規(guī)章偏重于審慎性監(jiān)管的傾向而言,《生成式人工智能服務管理暫行辦法》在設定人工智能服務提供者的義務、體現審慎性監(jiān)管之外,還明確地將包容性監(jiān)管也納入人工智能領域,并專設了第二章用以鼓勵與支持人工智能大模型技術的應用與發(fā)展。由此,包容審慎監(jiān)管正式融入了人工智能領域的監(jiān)管規(guī)范中,成為這一領域的主導性監(jiān)管理念。
《生成式人工智能服務管理暫行辦法》中的這一設定對于人工智能領域中包容審慎監(jiān)管的發(fā)展具有標志性意義,為我國人工智能法的制定提供了重要的借鑒,產生了重要的后續(xù)影響。如我國學者在2024年擬定了兩份關于人工智能立法的專家建議稿,其中都在總則部分將包容審慎監(jiān)管作為基本的監(jiān)管原則。目前我國人工智能法的立法準備工作正在緊鑼密鼓地推進中,可以想見,在不遠將來制定的人工智能法中,包容審慎監(jiān)管將會成為不可或缺的主導性監(jiān)管理念。
二、人工智能領域包含審慎監(jiān)管的法治理念內核
包容審慎監(jiān)管之所以成為人工智能領域內的主導性監(jiān)管理念,主要是因為它能夠有效應對人工智能技術的“破壞性創(chuàng)新”(disruptiveinnovation)特征,正是這一特征決定了包容審慎監(jiān)管的法治理念內核。
(一)“破壞性創(chuàng)新”決定包容審慎監(jiān)管的法治理念內核
破壞性創(chuàng)新的概念可以追溯到20世紀40年代約瑟夫·熊彼特(JosephA.Schumpeter)在研究產業(yè)經濟變革歷史時提出的“創(chuàng)造性毀滅”(creativedestruction)這一術語,意指來自新技術、新商品、新組織形式等的競爭,使得產業(yè)發(fā)生突變的過程。這一過程不斷地破壞舊的經濟結構并創(chuàng)造出新的經濟結構,最終從內部使得原有的經濟結構產生革命性變化。如果說熊彼特基于這一術語闡發(fā)的創(chuàng)新理論更多是對宏觀經濟社會結構演進的思考,那么數十年之后,克萊頓·克里斯坦森(ClaytonChristensen)則是在這一思想的影響下,從微觀市場競爭結構更迭的角度總結出新興企業(yè)利用破壞性技術顛覆主流企業(yè)的創(chuàng)新之路,提出了破壞性創(chuàng)新理論。這一理論主要是指技術推動者先通過破壞性的技術創(chuàng)新提供產品/服務來滿足邊緣市場需求,然后向主流市場逐步滲透并最終取代競爭對手的過程。他對這一兼具毀滅與重建過程的細致分析恰好揭示了熊彼特創(chuàng)新理論宏大敘事下的微觀市場演進形態(tài)。兩者的共同點在于都意識到新技術催生新型經濟社會結構的創(chuàng)新性,以及伴隨而生的對原有經濟社會結構的破壞性。
人工智能技術正是這種兼具創(chuàng)新性與破壞性的新技術,它能夠在經濟社會各個領域都產生破壞性創(chuàng)新的重大影響。在人工智能技術的賦能之下,舊有的經濟社會結構會受到新興市場主體的不斷挑戰(zhàn),進而逐步地瓦解,同時新型的經濟社會結構將會隨之相繼建立。例如,在人工智能大模型技術出現之后,低成本且高效產出的文本、圖片、音視頻等內容雖然暫時難以滿足專業(yè)性的主流市場需求(如Sora不能滿足制作完整電影的需求),但是卻可以滿足大量非專業(yè)性的邊緣市場需求(如Sora可以滿足制作短視頻的需求)。并且隨著非專業(yè)性的邊緣市場需求被滿足后,這一創(chuàng)新技術就會向專業(yè)性的主流市場需求拓展(如將Sora應用于完整的電影制作),在滿足主流市場需求的同時徹底顛覆原有的市場經濟結構(如徹底顛覆原有電影生產的市場模式)。隨著人工智能技術向經濟社會生活的各個領域滲透,這種破壞性創(chuàng)新帶來的毀滅與新生過程將會無處不在,在推動經濟社會高速發(fā)展的同時也不可避免地帶來了巨大的伴生風險,如人工智能大模型技術的推廣對訓練數據中個人信息權益的侵害、對訓練數據中作品的著作權侵害等等。人工智能技術帶來的伴生風險是科技力量在市場自由競爭這只“看不見的手”中演化的自然結果。為了在維系人工智能技術對經濟社會發(fā)展的促進功能的同時,有效防范隨之出現的這些伴生風險,由政府實施的包容審慎監(jiān)管就成為必不可少的“看得見的手”。
包容審慎監(jiān)管的內部包含了“包容”與“審慎”兩個方面的內容,兩者既相互區(qū)別又密切聯系,是辯證統(tǒng)一的關系,偏廢任何一方都不可取,否則會導致監(jiān)管走向極端。例如有學者在研究數字經濟領域的監(jiān)管時就曾指出,這一領域中曾將“包容審慎監(jiān)管”作為反壟斷法實施的政策目標,但是卻在現實中蛻變?yōu)閷底纸洕I域中違法行為的放任自流。這實際上就是因為過度強調了監(jiān)管的包容面,而偏廢了監(jiān)管的審慎面所導致的。因此,包容審慎監(jiān)管應當區(qū)分為“包容性監(jiān)管”和“審慎性監(jiān)管”兩個組成部分,兩者同等重要、缺一不可。
由此,人工智能領域的包容審慎監(jiān)管也可以區(qū)分為“包容性監(jiān)管”和“審慎性監(jiān)管”兩個組成部分,它的法治理念內核應是:包容性監(jiān)管主要用來呵護人工智能的創(chuàng)新性,通過塑造良好的市場營商環(huán)境,為人工智能技術和產業(yè)的快速發(fā)展提供推動力,助力實現我國在人工智能領域的領先地位;審慎性監(jiān)管主要用來防范人工智能的破壞性,通過劃定合理的安全紅線,防止人工智能的發(fā)展損害作為主體的人的最重要權益,助力實現我國人工智能的以人為本與向善發(fā)展。包容性監(jiān)管與審慎性監(jiān)管相輔相成,共同應對人工智能技術所具有的破壞性創(chuàng)新的特征,致力于實現發(fā)展人工智能與防范伴生風險之間的平衡關系。
(二)為何需要通過包容性監(jiān)管呵護人工智能的創(chuàng)新性?
包容審慎監(jiān)管中的“包容性監(jiān)管”主要用來呵護人工智能的創(chuàng)新性。在當今世界,人工智能已經成為數字時代創(chuàng)新科技的最前沿,也是構建我國新質生產力最重要的技術基礎。因此,呵護人工智能的創(chuàng)新性、促進人工智能技術與產業(yè)的快速發(fā)展便構成了我國政府監(jiān)管介入這一領域的基本底色,而這也正是包容審慎監(jiān)管中包容性監(jiān)管的主要功能。
具體而言,包容性監(jiān)管主要用來應對人工智能創(chuàng)新性可能會遭遇的法律規(guī)則突破與法律規(guī)則空白兩種情形。
1.法律規(guī)則的突破
人工智能技術的創(chuàng)新性特征意味著它可以賦能各類社會主體擺脫現有產業(yè)經濟結構的束縛,拓寬社會生產力的發(fā)展空間。然而,在這個過程中,它雖然開拓了全新的產業(yè)經濟發(fā)展方向,但是卻同時意味著會突破支撐現有產業(yè)經濟結構的法律規(guī)則體系,如布萊恩·阿瑟(BrianArthur)所說的那樣“改變制度安排的方式”,從而出現“非法興起”的現象。也即,人工智能的持續(xù)發(fā)展將會伴隨著相關涉人工智能行為對現有法律規(guī)則的不斷突破,形式上違法的非法行為將會持續(xù)涌現。強調此類涉人工智能行為屬于“形式上”違法,是因其雖然在行為形式上違反了現有法律規(guī)則設定的義務結構,但是卻代表了新科技發(fā)展的方向,潛藏著未來社會生產力的突破口,由此具有實質上的正當性。如果此時依循“嚴格執(zhí)法”的經典法治理念,對于此類形式違法的涉人工智能行為予以懲戒,那么監(jiān)管執(zhí)法權力就會成為阻礙人工智能創(chuàng)新發(fā)展的負面力量。
因此,為了呵護人工智能的創(chuàng)新性以實現其對經濟社會發(fā)展的促進功能,就需要適當包容此類僅具有形式違法性的涉人工智能行為。這正是包容性監(jiān)管的題中之義,它能夠通過包容這些僅具有形式違法性的涉人工智能行為,來呵護人工智能技術與產業(yè)的發(fā)展。
2.法律規(guī)則的空白
同樣由于人工智能所具有的創(chuàng)新性,它屬于突破性的科技與產業(yè)領域,其拓展方向完全有可能會出現沒有法律規(guī)則可以依循的情形。法律規(guī)則主要是基于人們過往行為經驗制定的行為要求,對于未來可能出現的情形即使會有所預見,也無法面面俱到。并且,法律規(guī)則天然具有的保守性也要求其不能朝令夕改,必須維持相對的穩(wěn)定性,這就導致不斷處于流變之中的經濟社會總有可能會遭遇法律規(guī)則的空白地帶。人工智能作為目前發(fā)展最為迅猛的科技與產業(yè)領域,對經濟社會發(fā)展具有極為強勁的推動作用,這就使得遭遇法律規(guī)則空白地帶的可能性大幅度增加。如果人工智能的發(fā)展進入法律規(guī)則的空白地帶,那么依循“有法可依”的經典法治理念,引發(fā)的下意識回應就會是要求及時制定相應的法律規(guī)則予以監(jiān)管。然而,創(chuàng)新性領域的發(fā)展本身充滿了不確定性,這種不確定性不但表現在出現的創(chuàng)新內容可能會難以預測,而且還表現在已經出現的創(chuàng)新內容的更迭速度可能會很快,以至于產生監(jiān)管機關和創(chuàng)新技術的開發(fā)者“共同無知”的狀況。這意味著如果此時急于制定相應的法律規(guī)則予以監(jiān)管,那么就必然會出現法律規(guī)則與創(chuàng)新內容之間的不匹配或相脫節(jié)。這樣不僅難以對人工智能的創(chuàng)新予以有效監(jiān)管,而且還可能會成為阻礙其發(fā)展的負面因素。
因此,為了避免政府監(jiān)管的過早介入導致監(jiān)管效能與創(chuàng)新實踐之間的脫節(jié),包容性監(jiān)管就顯得尤為必要。它能夠通過允許必要的法律規(guī)則留白,給予人工智能科技及產業(yè)等創(chuàng)新性領域相應的發(fā)展觀察期,避免過早制定的法律規(guī)則不適當地約束創(chuàng)新科技與產業(yè)發(fā)展的自由空間。
(三)為何需要通過審慎性監(jiān)管防范人工智能的破壞性?
包容審慎監(jiān)管中的“審慎性監(jiān)管”主要用來防范人工智能的破壞性。在通過包容性監(jiān)管呵護人工智能創(chuàng)新性的同時,也要意識到以人為本是人工智能倫理治理的首要原則,我們促進人工智能發(fā)展的最終目的是要為大眾謀福利,讓社會中每一個個體都能受益于人工智能的發(fā)展成果,能夠切實感受到人工智能發(fā)展帶來的幸福感。因此,面對人工智能所具有的破壞性創(chuàng)新的特性,在實施包容性監(jiān)管的同時,還應通過審慎性監(jiān)管防范人工智能發(fā)展伴生的對人的權益侵害風險。
具體而言,審慎性監(jiān)管主要用來防范人工智能破壞性導致對人的權益侵害廣度擴張和深度拓展兩種情形。
1.權益侵害的廣度擴張
持續(xù)提高的人工智能技術水平在展現出對經濟社會巨大推動能力的同時,也蘊藏著強大的破壞能力。推動能力和破壞能力實際上是人工智能的一體兩面,推動能力越大恰恰意味著破壞能力也越大。隨著人工智能的不斷發(fā)展,其造成權益侵害的風險將會不斷增加,這首要體現在風險波及廣度方面可能會遠超其他領域的權益侵害風險。
例如,人工智能大模型技術已經成為目前人工智能發(fā)展的主流技術。人工智能大模型的基本技術原理是通過超強算力學習掌握超大體量訓練數據中包含的詞元(token)間概率分布規(guī)律,然后依據這種概率分布規(guī)律以“預測下一個詞”的方式輸出用戶需求的信息。在這個過程中,基于超大體量數據集進行的預訓練是人工智能大模型成功的關鍵要素。超大體量的訓練數據常來自開發(fā)者(或數據供應商)對互聯網數據的爬取,而其中包含的作品類數據覆蓋面很廣,以至于幾乎所有互聯網上能夠獲取的作品類數據都可能會成為人工智能大模型的訓練數據。如此龐大體量的作品使得大模型的開發(fā)者要獲得每項作品的著作權許可是極為困難的,因而通常都是在沒有著作權人同意的情況下使用其作品進行大模型訓練。這就導致在我國目前的著作權法律制度下,開發(fā)者處理這些作品類數據時會對超大體量作品的著作權人權益產生侵害,幾乎所有數字化作品的著作權人可能都是受害者,其權益侵害風險的廣度將會遠超其他領域。
于是,就需要通過審慎性監(jiān)管來防范人工智能對人的權益侵害廣度不斷擴張的趨勢。正如后文將會仔細分析的,它能夠基于謹慎防范人工智能伴生風險的立場,通過實驗型規(guī)制的方式,將人工智能可能造成的權益侵害風險限制在一定范圍內,待到探索出適當的風險控制途徑后再行推廣應用。
2.權益侵害的深度拓展
人工智能蘊藏的強大破壞能力還體現在其造成的權益侵害深度可能也會遠超其他領域。仍然以人工智能大模型技術為例,在進行人工智能大模型預訓練的超大體量訓練數據中,還包含著大量的個人信息數據。鑒于訓練數據體量對于大模型性能提高的重要性,開發(fā)者收集此類個人信息數據時就可能會出現過度收集的傾向。當開發(fā)者將這些過度收集而來的個人信息數據用于大模型預訓練之后,就會存在深度侵害信息主體隱私權的巨大風險。這是因為,人工智能大模型技術具有強大的碎片化信息整合能力,即使大模型預訓練階段使用的個人信息數據是碎片化的,不直接涉及個體隱私信息,但在大模型采用的深度神經網絡機器學習算法的強大分析能力之下,這些碎片化的個人信息數據會被深入分析、整理,隱藏在其中的個體隱私信息也會被充分整合與挖掘,甚至特定信息主體的個體隱私信息會被一覽無遺地揭露。這些個體隱私信息不但會被完全暴露在大模型的開發(fā)者面前,而且大模型的終端用戶也可能通過“提示詞”(prompt)誘導大模型輸出特定信息主體的諸多隱私信息,即大模型的通用性會造成風險向下游應用傳導。此外,最新的研究還顯示,現有的技術手段已經能夠從大模型中反向抽取出以GB為單位的數量龐大的原始訓練數據,這就導致其中包含的大量個人隱私信息也同樣會被反向抽取。可見,較之傳統(tǒng)上通常只是部分個體的部分隱私信息泄露的情形,人工智能大模型技術之下這種個體隱私信息的全方位泄露顯然造成的權益侵害風險更甚。
因此,為了防范此類對人的權益侵害深度的拓展,審慎性監(jiān)管就顯得尤為重要。由于監(jiān)管成本的固有限制,絕對地防止任何權益侵害風險的發(fā)生是不可能且沒有必要的,而審慎性監(jiān)管可以通過劃定安全紅線的監(jiān)管方式,將監(jiān)管資源集中在對人的最重要權益保護之上,實現安全與發(fā)展之間的平衡。
三、人工智能領域包容性監(jiān)管的法治路徑
如前文所述,包容性監(jiān)管主要是為了應對人工智能領域出現的法律規(guī)則突破與法律規(guī)則空白兩種情形,以下分別論述這兩種情形中實現包容性監(jiān)管的具體法治路徑。
(一)應對法律規(guī)則突破的包容性監(jiān)管
法律規(guī)則的穩(wěn)定性與創(chuàng)新科技的變動性之間總是存在著天然的張力。在相關法律規(guī)則不能及時調整與修改的情形下,我們應當通過法律規(guī)則內的包容性監(jiān)管來應對涉人工智能行為對法律規(guī)則的可能突破,其中主要的方式就是通過法律解釋的途徑在既有法律規(guī)則框架內實現對人工智能發(fā)展的呵護。
1.通過法律解釋逸脫現有規(guī)則的適用范圍
法律規(guī)則中存在著大量的不確定法律概念,行政監(jiān)管機關在依據法律規(guī)則實施監(jiān)管行為時必然會涉及對這些不確定法律概念的解釋,以便使監(jiān)管對象的行為事實涵攝入解釋后所得的法定事實構成要件之中,并進而決定實施相應的監(jiān)管措施。不確定法律概念的解釋存在彈性空間,這就為行政監(jiān)管機關通過法律解釋使涉人工智能的行為事實逸脫于現有法律規(guī)則的適用范圍之外、實施包容性監(jiān)管提供了可能性。
例如,根據《中華人民共和國著作權法》(2020年修正,以下簡稱《著作權法》)第53條規(guī)定,侵害著作權人對作品享有的復制權并且同時損害公共利益的,行政監(jiān)管機關有權責令停止侵權并對侵害人實施行政處罰。該條文設定了行政監(jiān)管機關對侵害作品復制權行為實施監(jiān)管的法定事實構成要件(即侵害復制權并損害公共利益)及具體的行政監(jiān)管措施(即行政處罰)。依據這一法律規(guī)則,人工智能大模型的開發(fā)者在進行大模型預訓練時就可能會受到行政監(jiān)管機關的行政處罰。因為大模型預訓練所需的超大體量數據通常是開發(fā)者通過網絡爬蟲技術從互聯網上復制獲取,或者通過購買專門數據聚合商提供的數據集獲取,其中不可避免地包含著對作品類數據的復制行為。大模型預訓練數據的超大體量特性使得開發(fā)者在客觀上就無法逐一獲得所有著作權人的復制許可,也就至少在形式上侵害了著作權人對作品享有的復制權。并且,訓練數據包含的作品數量極為龐大,幾乎涵蓋互聯網上能夠獲取的所有數字化作品,涉及著作權人的范圍極為廣泛,因此往往很容易被認定為侵害了公共利益。然而,如果此時行政監(jiān)管機關以保護公共利益的名義介入監(jiān)管,依據《著作權法》的規(guī)定對大模型開發(fā)者使用作品類數據進行大模型預訓練的行為予以行政處罰,那么就可能會造成寒蟬效應,導致開發(fā)者難以獲取足量的訓練數據進行大模型開發(fā)活動,進而阻礙我國人工智能大模型技術的發(fā)展。
面對這一監(jiān)管困境,如果要通過包容性監(jiān)管呵護我國人工智能大模型技術的創(chuàng)新性發(fā)展,增強開發(fā)者對作品類訓練數據的可得性。那么,在修改《著作權法》相關規(guī)則的成本過高、不易操作的前提下,行政監(jiān)管機關就可以考慮采用法律解釋的方法,對相關不確定法律概念進行靈活解釋,從而使大模型預訓練使用作品類數據的行為事實逸脫出《著作權法》相關規(guī)則的適用范圍。如有學者認為可以將人工智能大模型預訓練中對作品的復制行為解釋為“非作品性使用”,從而將其排除在著作權法的適用范圍之外。這一思路實質上就是通過對《著作權法》中的“復制”,這一不確定法律概念進行限縮解釋,將大模型預訓練時復制作品的行為事實排除在著作權法律規(guī)則的適用范圍之外,證成了大模型預訓練使用作品類數據的合法性,進而行政監(jiān)管機關也就無需對開發(fā)者實施處罰。
2.通過法律解釋靈活適用從輕/減輕/不予處罰規(guī)則
雖然通過對不確定法律概念的解釋能夠在特定領域實現對涉人工智能行為的呵護,但是并非所有的情境中,行政監(jiān)管機關都可以通過這種方式將涉人工智能的行為事實排除在法律規(guī)則的適用范圍之外。當涉人工智能的行為事實難以被排除在規(guī)則適用范圍之外時,行政監(jiān)管機關還可以通過法律解釋靈活運用《中華人民共和國行政處罰法》(以下簡稱《行政處罰法》)中的“從輕處罰”“減輕處罰”“不予處罰”等規(guī)則來實現包容性監(jiān)管。
具體而言,我國的《行政處罰法》是行政處罰領域內的“基礎性法律”,除非法律有專門的例外性規(guī)定,否則各類監(jiān)管領域中的行政處罰行為都應適用《行政處罰法》的規(guī)定。在該法第四章中設定了六種應當從輕/減輕處罰的適用規(guī)則、一種可以從輕/減輕處罰的適用規(guī)則、四種應當不予行政處罰的適用規(guī)則、一種可以不予處罰的適用規(guī)則。這些行政處罰的適用規(guī)則是實現行政處罰中過罰相當原則的規(guī)范體系,它們能夠成為減免懲戒當事人力度的法定依據,并可適用于包括人工智能監(jiān)管在內的各個行政監(jiān)管領域。并且,這些行政處罰規(guī)則的適用條件中大量使用了諸如“消除/減輕”“危害后果”“輕微”“及時改正”等不確定法律概念。這些不確定法律概念都存在著富有彈性的解釋空間,行政監(jiān)管機關可以通過對這些概念的靈活解釋達到降低監(jiān)管懲戒力度的目的,從而依法實現人工智能領域內的包容性監(jiān)管。
我們可以用網約車的監(jiān)管事例來予以說明。網約車的普及在很大程度上依賴于互聯網數字平臺采用的人工智能算法統(tǒng)籌調度,是決策式人工智能技術的經典應用之一。在網約車興起的初期,由于接入了大量未獲道路運輸經營許可的私家車主,導致行政監(jiān)管機關常依法對車主處以高達數萬元的行政罰款。如果單從這些車主未獲經營許可載客的行為形式上而言,確實屬于未經許可實施客運經營的違法行為,很難通過法律解釋將這一行為事實排除在相關道路運營規(guī)則的適用范圍之外。雖然這種依托于人工智能算法統(tǒng)籌調度的新型客運經營行為確實違反了當時生效的法律規(guī)則中的禁止性規(guī)定,但是行政監(jiān)管機關對相關主體施加高額罰款所產生的一般威懾(generaldeterrence)效應也會在客觀上阻礙人工智能技術的應用推廣。
在這種情況下,行政監(jiān)管機關如果要呵護人工智能技術的創(chuàng)新發(fā)展,實現包容性監(jiān)管,那么就可以通過對行政處罰適用規(guī)則進行靈活解釋以減輕甚至免除對當事人的懲戒。例如,行政監(jiān)管機關可以通過解釋認定網約車主停止載客的行為符合《行政處罰法》第32條規(guī)定的“主動消除或者減輕違法行為危害后果”的情形,從而依法對車主予以從輕/減輕行政處罰。或者,也可以通過解釋認定網約車主停止載客的行為符合《行政處罰法》第33條規(guī)定的“違法行為輕微并及時改正,沒有造成危害后果”的情形,進而依法對其不予行政處罰。這樣的法律解釋方式可能會伴隨著不同的意見和爭議,但是在相關法律規(guī)則不能及時修改、涉人工智能行為的形式違法性又難以否認的情況下,通過這種方式實現包容性監(jiān)管,呵護人工智能技術的發(fā)展已經是相對最優(yōu)的選擇。
當然,通過上述法律解釋的方式實現人工智能領域的包容性監(jiān)管存在一個不可或缺的前提,即行政監(jiān)管機關預設的監(jiān)管目的就是呵護人工智能的發(fā)展,并在這一監(jiān)管目的之下對不確定法律概念進行解釋。否則,由于對不確定法律概念的解釋本身會存在多個不同的角度,在不同角度下的解釋所實現的監(jiān)管目的將會大相徑庭,那么也就難以順利實現呵護人工智能發(fā)展的包容性監(jiān)管。
(二)應對法律規(guī)則空白的包容性監(jiān)管
人工智能技術賦能下的數字經濟社會將會實現高速乃至超高速的發(fā)展,這也就導致進入法律規(guī)則空白之地的可能性大幅度增加。人工智能的發(fā)展一旦出現無法可依的情況,行政監(jiān)管機關就面臨著應當如何予以有效應對的兩難問題:一方面當遭遇法律規(guī)則空白之時,往往也就意味著人工智能面臨著發(fā)展演化的不確定性。行政監(jiān)管機關事實上難以掌握充足的信息對其實施及時有效的監(jiān)管,貿然介入反而可能成為人工智能發(fā)展的阻礙。而另一方面,如果行政監(jiān)管機關此時對人工智能不予監(jiān)管,那么它又會逐步深深嵌入到經濟社會結構中,一旦出現實際的危害后果,對其進行監(jiān)管矯正就變得極為困難。這就是現代科技監(jiān)管中的“科林格里奇困境”(Colingridge,sDilemma)。
應該如何解決人工智能領域監(jiān)管中的這一兩難問題?通過設置“法定觀察期”或許是一條有效的包容性監(jiān)管的法治路徑。“觀察期”是指當涉人工智能的新技術、新產業(yè)、新業(yè)態(tài)或新模式出現且不存在相關法律規(guī)則可以適用時,行政監(jiān)管機關在一定期限內不予介入干預,或者更多使用教育、勸說、建議、提示、指導等柔性方式加以引導,給涉人工智能的新生事物留下自由發(fā)展的充分空間。同時,行政監(jiān)管機關還應積極收集相關的信息、總結相應的經驗,為時機成熟之后的監(jiān)管介入培育基礎。
觀察期的設置并非意味著行政監(jiān)管機關對涉人工智能的新生事物置之不理,而是通過給予這些新生事物適當的成長期,以便為有效的人工智能監(jiān)管收集充足信息。因此,觀察期可以在很大程度上緩解科林格里奇困境。它一方面并不貿然采用剛性監(jiān)管手段介入人工智能的發(fā)展領域,避免因信息不足而導致的亂監(jiān)管;另一方面又并非對人工智能的發(fā)展聽之任之,而是在時刻關注的過程中不斷為監(jiān)管的有效介入做準備。因此,觀察期可以視為行政監(jiān)管機關介入人工智能領域開展監(jiān)管活動的前期準備階段。
當然,如果在沒有明確法律依據的情況下,行政監(jiān)管機關徑行在一定期限內對涉人工智能的新生事物暫緩監(jiān)管,可能會引發(fā)不了解情況的第三方責難其放棄了自身的監(jiān)管職責,行政監(jiān)管機關可能會由此承擔怠于履責的行政法律責任。出于避免此類誤解的考量,即使在監(jiān)管信息不充分的情況下,行政監(jiān)管機關也可能會“被迫”積極地對涉人工智能的新生事物介入監(jiān)管,導致過早地實施不成熟的監(jiān)管措施,反而成為阻礙人工智能發(fā)展的力量。為了使行政監(jiān)管機關能夠不受干擾地在觀察期內對遭遇法律規(guī)則空白的涉人工智能新生事物暫緩監(jiān)管,就需要通過正式的立法為這種暫緩監(jiān)管行為提供法定依據,使觀察期成為行政監(jiān)管機關暫緩監(jiān)管涉人工智能新生事物的“合法期間”。因此,建議在我國人工智能立法中,明確設定人工智能監(jiān)管的觀察期制度,授予行政監(jiān)管機關對涉人工智能新生事物暫緩監(jiān)管的法定權力,給予行政監(jiān)管機關實施此類包容性監(jiān)管的充分法律支撐。
同時,為了避免法定觀察期的制度設計淪為行政監(jiān)管機關怠于履行職責的借口,還應在立法時考慮設置相應的約束性機制,督促行政監(jiān)管機關在必要時積極履行職責。例如,可以考慮配套設置法定觀察期內由行政監(jiān)管機關實施的評估制度,要求其定期對涉人工智能新生事物的發(fā)展狀況、暫緩監(jiān)管的理由、恢復監(jiān)管必要性與可行性等內容進行評估,制作詳細的評估報告,并定期向公眾主動公開。這種定期評估制度可以督促行政監(jiān)管機關對涉人工智能新生事物保持持續(xù)關注,一旦出現相關風險時就能夠及時介入監(jiān)管,防止危害后果的出現或擴大。這樣的配套制度設置也正是體現了包容性監(jiān)管與下述審慎性監(jiān)管之間的辯證統(tǒng)一。
四、人工智能領域審慎性監(jiān)管的法律路徑
如前文所述,審慎性監(jiān)管主要是為了應對人工智能領域出現的權益侵害廣度擴張和權益侵害深度拓展兩種情形,以下分別論述這兩種情形中實現審慎性監(jiān)管的具體法治路徑。
(一)應對權益侵害廣度擴張的審慎性監(jiān)管
在我國,審慎性監(jiān)管中有效應對人工智能領域權益侵害廣度擴張的主要法治途徑是將舶來的監(jiān)管沙盒制度(regulatorysandbox)與本土的改革試驗區(qū)模式進行結合運用。
監(jiān)管沙盒制度源于2015年英國金融行為監(jiān)管局(FCA)為應對金融科技發(fā)展而實施的監(jiān)管創(chuàng)新(歐盟的《人工智能法案》已將監(jiān)管沙盒制度正式納入人工智能監(jiān)管體系)。在這種監(jiān)管制度下,英國的行政監(jiān)管機關依據法律授權允許符合特定條件的金融科技企業(yè)進入監(jiān)管沙盒,在有限的業(yè)務牌照下利用真實或模擬的市場環(huán)境開展金融創(chuàng)新業(yè)務,經過一段時期的測試證明有效后再全面推廣。這種創(chuàng)新監(jiān)管制度與我國經濟社會發(fā)展中常采用的改革試驗區(qū)模式具有異曲同工之處。改革試驗區(qū)模式是指我國為了深化經濟社會領域的改革,在特定行政區(qū)域內通過試點來探索某些領域改革開放的路徑或可能性,以在積累相關經驗的基礎上,為其他區(qū)域的發(fā)展樹立樣板,并將其試點經驗推廣到其他區(qū)域,甚至據此推動新制度在全國的確立。舶來的監(jiān)管沙盒制度與本土的改革試驗區(qū)模式的共同點在于都采用了試點成功后全面推廣的思路,不同點則在于前者通常是由行政監(jiān)管機關在某個產業(yè)領域(如金融領域)中選取特定的幾家企業(yè)賦予資格后開展試點,后者則通常由國家選取特定行政區(qū)域并給予靈活適用法律、法規(guī)或規(guī)章的權力,通過制定試驗性立法開展多領域的改革試點后再行推廣,覆蓋面要遠遠廣于前者。
為了防范人工智能的發(fā)展導致對人的權益侵害范圍的擴張風險,我們可以將這兩者相結合,在改革試驗區(qū)內通過涉人工智能的試驗性立法設定監(jiān)管沙盒制度,從而實現審慎性監(jiān)管的法治化。試驗性立法是改革試驗區(qū)內貫徹實現“改革只能在法律的范圍內進行”的法治要求的主要途徑。全國人民代表大會及其常委會通過發(fā)布“授權決定”的方式賦予特定機關在改革試驗區(qū)內通過試驗性立法變通法律、行政法規(guī)、部門規(guī)章的權力,為改革試點提供合法性依據。例如,全國人民代表大會常務委員會曾于2021年6月作出授權決定,授權上海市人民代表大會及其常委會制定浦東新區(qū)法規(guī),可以對法律、行政法規(guī)、部門規(guī)章作出變通規(guī)定(《中華人民共和國立法法》2023年修訂時已將其納入正式立法)。由此,浦東新區(qū)作為改革試驗區(qū),就能夠通過試驗性立法對法律、行政法規(guī)、部門規(guī)章中設定的內容進行變通實施。我們可以運用這一授權,通過浦東新區(qū)法規(guī)在浦東新區(qū)改革試驗區(qū)內建立人工智能的監(jiān)管沙盒制度,允許符合條件的人工智能企業(yè)進入監(jiān)管沙盒,在受控的前提下開展人工智能創(chuàng)新技術和產品的研發(fā)。這樣即使人工智能技術或產品存在侵害人的權益的風險,也能被有效地限定在監(jiān)管沙盒所涉企業(yè)以及改革試驗區(qū)域范圍內。
以人工智能大模型的開發(fā)為例,其開發(fā)所使用的超大體量訓練數據中包含了大量的作品類數據,存在著侵害著作權人權益的范圍不斷擴張的風險。對此,我們可以將監(jiān)管沙盒制度與改革試驗區(qū)相結合,通過制定浦東新區(qū)法規(guī)在浦東新區(qū)改革試驗區(qū)內設定人工智能大模型的監(jiān)管沙盒制度,將符合條件的大模型開發(fā)企業(yè)納入監(jiān)管沙盒,在行政監(jiān)管機關嚴格監(jiān)督的前提下開展大模型的預訓練活動。進入監(jiān)管沙盒的企業(yè)數量有限且經過嚴格刪選,因此行政監(jiān)管機關就能具備充足的行政資源監(jiān)管企業(yè)利用作品類數據進行大模型預訓練的活動,進而也就有能力將可能出現的侵害著作權風險限制在一定范圍之內,防止其權益侵害范圍的擴張。簡言之,這種“試驗型規(guī)制制度是降低實施中錯誤成本的有效方法”。
(二)應對權益侵害深度拓展的審慎性監(jiān)管
人工智能技術具有的強大數據分析與挖掘能力潛藏著對人的權益的深度侵害風險,我們應當通過以國家強制力作為后盾的行政監(jiān)管機關來防范此類權益侵害深度的拓展。
1.依法劃定權益保護的安全紅線
審慎性監(jiān)管并非絕對禁止一切可能產生權益侵害的人工智能,否則會徹底禁錮人工智能的發(fā)展,而是要在謹慎權衡利弊的基礎上,依法劃定人工智能開發(fā)活動不可以突破的安全紅線,聚焦于保障最為重要的權益類型,使人工智能對于經濟社會發(fā)展所產生的總體效益高于伴生的權益侵害損失,從而實現卡爾多希克斯標準(Kaldor-Hickscriterion)意義上的效率。
以我國人工智能大模型技術的發(fā)展為例,就其技術特性而言,需要在大模型預訓練階段使用超大規(guī)模的訓練數據才能達到理想的機器學習效果,而目前互聯網上可以獲取的訓練數據中包含了大量個人信息數據。如果為了保護信息主體的個人信息權益,嚴格禁止在大模型預訓練中使用這些個人信息數據,那么就可能在很大程度上減少訓練數據的體量,進而影響大模型預訓練的學習效果。但是如果完全放任這些個人信息數據被用于大模型預訓練,又可能會對信息主體的個人信息權益造成侵害。并且,在大模型強大的數據分析能力之下,這種權益侵害的深度會不斷拓展甚至失控。因此,我國的審慎性監(jiān)管需要在法律框架內,謹慎考慮安全與發(fā)展之間的平衡關系,實現對用于大模型訓練的個人信息數據“從權利保護到公平使用”的規(guī)制目標。
由此,基本的審慎性監(jiān)管思路是將個人信息數據所涉及的權益分為人格性權益和財產性權益兩個部分,并將保護的重點置于人格性權益之上,同時適當放寬對其中的財產性權益的保護。這是因為,個人信息中的人格性權益涉及信息主體作為人的基本尊嚴,難以用經濟效益加以衡量。而個人信息的財產性權益對于信息主體而言所占權重通常并不大,且人工智能技術發(fā)展所帶來的總體經濟社會增益很高,從整體上而言足以補償相應的個人信息財產性損失,滿足卡爾多希克斯效率標準的要求。因此,在將個人信息數據用于人工智能大模型預訓練時,權益保護的安全紅線就可以劃定在保護個人信息中的人格性權益之上。也即,審慎性監(jiān)管的重點在于保障大模型訓練數據中信息主體的人格性權益,只要不是損害信息主體人格性權益的大模型數據處理行為都應屬于允許的范圍。
依據這一安全紅線的劃定思路,結合前文所述的監(jiān)管沙盒與改革試驗區(qū)制度,我們可以在改革試驗區(qū)內通過試驗性立法對《中華人民共和國個人信息保護法》進行變通規(guī)定,允許納入監(jiān)管沙盒的企業(yè)在不侵害信息主體人格性權益的前提下,自由利用個人信息數據進行人工智能大模型的開發(fā)。這樣一方面為人工智能企業(yè)開發(fā)大模型松開了法律規(guī)則上的束縛,能夠更充分地挖掘個人信息數據中蘊藏的價值;另一方面也能守住保護信息主體人格性權益的安全紅線,在監(jiān)管沙盒和改革試驗區(qū)的制度輔助之下將可能產生的損害風險限制在最小范圍內。
2.設定必要的從重處罰規(guī)則
權益保護安全紅線的劃定雖然重要,但僅僅只是設定了人工智能領域應重點保護的法律權利和相關主體不得違反的法律義務。如果沒有相應的法律責任機制予以保障,那么這種法律權利和法律義務的設定就可能會淪為紙面上的法,而無法成為實際被遵守的“活著的法”。因此,在依法劃定人工智能發(fā)展中安全紅線的同時,審慎性監(jiān)管還應當通過必要的法律責任機制確保法律權利能夠得到切實保護,以及法律義務能夠得到切實履行,其中尤為重要的法治路徑之一就是針對突破權益保護安全紅線的行為依法設定從重處罰規(guī)則。
從重處罰是指在法定行政處罰裁量幅度內靠近上限實施處罰。正如在包容性監(jiān)管中可以通過從輕/減輕/不予處罰規(guī)則來呵護人工智能的創(chuàng)新性發(fā)展一樣,在審慎性監(jiān)管中同樣可以通過從重處罰規(guī)則來應對涉人工智能行為突破安全紅線的風險。也即,我們可以將人工智能領域中突破安全紅線的行為設定為行政處罰的“從重情節(jié)”,予以從重行政處罰。之所以需要設定從重處罰規(guī)則,主要因為:其一,在人工智能技術的破壞性創(chuàng)新特征的加持之下,涉人工智能行為突破權益保護安全紅線的深度會持續(xù)拓展且難以預測底部。因此,需要通過從重處罰規(guī)則來應對這種權益侵害深度的不確定性,以便在人工智能技術或產業(yè)發(fā)展過程中出現不可預測的重大權益侵害時,依法實施與危害程度相適應的行政處罰,使責任主體承擔過罰相當的法律責任。其二,專門針對突破權益保護安全紅線的涉人工智能行為設定從重處罰規(guī)則,實際上也是在向人工智能技術與產業(yè)的相關主體傳遞一種“信號”,即行政監(jiān)管機關對這些權益保護安全紅線的重視程度以及牢牢守住權益保護安全紅線的重要性,提醒這些主體突破這一紅線所要承擔的嚴格法律責任,從而能夠在事先盡最大可能地預防發(fā)生突破權益保護安全紅線的行為。
在我國目前的法律體系中,雖然已有部分單行法律設定了從重處罰規(guī)則,但在《行政處罰法》中,除了突發(fā)事件的特殊情形之外(第49條),并未設定從重處罰的一般性規(guī)則。這意味著在目前人工智能法缺位的情況下,對于突破權益保護安全紅線的涉人工智能行為,行政監(jiān)管機關無法依據《行政處罰法》的一般性規(guī)定在必要時實施從重處罰,這就可能會導致對此類涉人工智能的違法行為難以實施過罰相當的行政處罰。因此,面對人工智能破壞性創(chuàng)新所帶來的權益侵害深度拓展的不確定性,如果不能通過修改現行《行政處罰法》增加從重處罰的一般性規(guī)則,那么在未來制定的人工智能法中針對突破權益保護安全紅線的涉人工智能行為,設定特定條件下的從重處罰規(guī)則或許是最為可行的方案。
結語
綜上所述,雖然包容審慎監(jiān)管最初并非專門針對人工智能領域提出,但是隨著大模型技術出現之后迎來的人工智能爆發(fā)式增長,包容審慎監(jiān)管將會成為我國人工智能領域的主導性監(jiān)管理念。人工智能技術所具有的破壞性創(chuàng)新特征決定了包容審慎監(jiān)管的法治理念內核,使其區(qū)分為包容性監(jiān)管與審慎性監(jiān)管兩個部分。其中包容性監(jiān)管的主要目的在于呵護人工智能的創(chuàng)新性,以便促進人工智能的快速發(fā)展,打造我國在新經濟周期中科技與產業(yè)的領先地位。包容性監(jiān)管主要適用于人工智能發(fā)展可能遭遇的法律規(guī)則突破與法律規(guī)則空白兩種情形,我們可以通過法律解釋逸脫現有法律規(guī)則的適用范圍、靈活運用從輕/減輕/不予處罰規(guī)則、設置法定觀察期等法治途徑予以實現。審慎性監(jiān)管的主要目的在于應對人工智能的破壞性,以便防范人工智能的伴生風險,平衡我國人工智能發(fā)展與安全之間的關系。審慎性監(jiān)管主要適用于人工智能的發(fā)展可能導致對人的權益侵害廣度擴張與深度拓展兩種情形,我們可以通過將舶來的監(jiān)管沙盒制度與本土的改革試驗區(qū)模式結合運用、依法劃定權益保護的安全紅線、設定必要的從重處罰規(guī)則等法治途徑予以實現。這些關于人工智能領域包容審慎監(jiān)管的具體法治途徑,可以為我國人工智能法的立法活動提供參考,從而建構一個既能有力促進我國人工智能技術與產業(yè)發(fā)展,又能有效防范人工智能伴生風險,且具有中國特色的人工智能監(jiān)管法律體系。
—— EDN ——
本文來自《財經法學》2025年第2期,本文章僅限學習交流使用,版權歸原作者所有。
Serving national strategies, focusing on university research and the transformation of scientific and technological achievements
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.