<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      付新華:全球人工智能立法的多元趨勢與中國模式 | 交大法學202506

      0
      分享至

      【作者】付新華(北京交通大學法學院副教授、數據法學研究中心主任、法學博士、應用經濟學博士后)

      【來源】北大法寶法學期刊庫《交大法學》2025年第6期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。


      內容提要:在科技競爭與規則博弈的雙重驅動下,全球人工智能立法呈現多元化趨勢。歐盟率先通過統一的人工智能法,確立基于權利保護的風險規制模式;美國則展現出聯邦層面的去監管化傾向,以及州級立法、行業自律與國際標準補位的治理格局;韓國、日本與印度則依據各自技術基礎與治理需求,探索更加多元化的立法路徑。當前,中國以國家戰略為引領,政策統籌、專項立法與地方探索協同并進,逐步形成統籌發展與安全、靶向治理與機制協同的漸進式立法模式。面向未來,中國人工智能立法應系統回應“是否立法、何時立法、立什么法、如何立法”等關鍵議題,遵循“促進法—基本法—綜合法”的三階演進路徑,構建契合國情、具備技術適應性與國際競爭力的人工智能治理體系。

      關鍵詞:人工智能立法;人工智能法;立法路徑;立法模式;漸進式立法

      目次 一、問題的提出 二、全球人工智能立法的多元趨勢 三、中國人工智能立法的路徑開釋 四、構建人工智能立法的中國模式 五、結論

      問題的提出

      人工智能作為引領新一輪科技革命和產業變革的關鍵技術,正在深刻重塑全球經濟結構、社會關系與治理體系。在帶來創新機遇與效率躍升的同時,人工智能也面臨著諸如隱私侵犯、算法歧視、數據濫用、責任歸屬不清等多維度的法律與倫理挑戰。人工智能立法作為社會價值的權威化表達,正在成為世界各國和地區應對技術變革與社會風險、構建規范性治理體系的重要制度安排。

      歐盟以基本權利保護為核心,通過統一立法確立了基于風險分級的規制模式;美國在聯邦層面展現出去監管化傾向,由州級立法、行業自律和國際標準實現規制補位;韓國、日本、印度則依據本國技術基礎與治理需求,探索多元化的立法進路。中國在國家戰略引領下積極推進人工智能治理體系建設,初步形成了以政策統籌、專項立法、地方探索為主要特征的治理模式。這種人工智能立法的多元趨勢不僅反映了各國在技術實力、法律傳統與治理理念上的差異,也在客觀上加劇了全球人工智能治理的規則競爭。正如有學者所言:“哪個國家能率先發現并確立基本規則,哪個國家就有可能引領人工智能法整體范式變革。”

      在國際科技競賽與規則競爭雙重博弈的背景下,中國人工智能立法應系統回應“是否立法、何時立法、立什么法、如何立法”等關鍵議題。有鑒于此,本文在梳理全球人工智能立法多元化趨勢的基礎上,嘗試揭示我國人工智能立法的演進邏輯與制度特征,提出“促進法—基本法—綜合法”的漸進式立法路徑,以促進人工智能安全健康發展,為構建具有中國特色、面向未來的人工智能治理體系提供理論支撐與實踐參考。

      全球人工智能立法的多元趨勢

      全球人工智能立法呈現出路徑分化、模式多元、功能異構的趨勢,反映出全球人工智能治理正在進入“制度競爭”與“范式碰撞”的新階段。

      (一)歐盟模式:統一立法下基于權利保護的風險規制

      歐盟2024年正式通過的《人工智能法》,是全球首部統一的人工智能法。通常認為,《人工智能法》采取了“基于風險”的規制模式,事實上,歐盟模式的核心是將基于風險的分層治理機制嵌入其長期以來強調的“人本價值導向”與“基本權利保護”框架之中。換言之,歐盟立法中的“風險”并非抽象的技術風險,而是以對人的尊嚴、平等、自由等基本權利的潛在威脅為風險等級判定標準,進而實施不同的治理策略。

      首先,在“不可接受風險”人工智能系統的規制方面,《人工智能法》第5條明確列舉八類被禁止的人工智能系統,其禁止依據正是這些系統對基本權利構成根本性威脅。例如,禁止操縱潛意識或利用脆弱性影響決策(第1款a、b項),防止侵犯個體意志自由;禁止社會評分及歧視性待遇(第1款c項),維護人格尊嚴與平等;禁止基于性格特征預測犯罪風險的執法(第1款d項),防止刻板印象與偏見推斷;禁止通過無差別抓取網絡或監控圖像建立面部識別數據庫(第1款e項),回應隱私保護與監控濫用風險。此外,還禁止在教育、工作等場景使用情緒識別(第1款f項),基于生物特征推斷敏感信息(第1款g項),以及特定條件下在公共空間部署實時遠程生物識別系統(第1款h項)等。這一系列禁止性規定確立了“禁止即保護”的立法邏輯,彰顯了通過法律手段劃定人類尊嚴與自由不可逾越底線的制度立場。

      其次,在“高風險”人工智能系統的規制方面,《人工智能法》第6條結合附件三列明了具體適用領域,如教育招生、就業招聘、執法識別、司法輔助等社會關鍵領域,只要人工智能系統的預期用途對自然人健康、安全等基本權利具有重要影響,即被納入高風險類別,必須履行嚴格的合規義務。這些義務包括建立覆蓋系統全生命周期的風險管理機制(第9條)、確保數據的相關性、代表性與去偏見標準(第10條)、完善技術文檔與自動記錄機制(第11條、第12條)、確保透明度(第13條)、設立有效的人類監督機制(第14條),并在準確性、穩健性與網絡安全方面達到規定標準(第15條)。需要特別指出的是,《人工智能法》第27條還引入了“基本權利影響評估”制度,要求在部署特定高風險人工智能系統之前,相關主體必須對其可能帶來的基本權利影響進行系統性評估。評估內容包括:說明系統的預期使用流程、使用頻率與期限,識別可能受影響的自然人或群體類別,結合第13條所提供信息分析潛在危害風險,說明人工監督措施的實施情況,以及在風險發生時擬采取的應對措施。“基本權利影響評估”制度體現了歐盟將基本權利保護貫穿于人工智能系統設計、開發、部署全過程的治理理念。

      總體而言,歐盟人工智能立法基于基本權利保護這一價值引領,對不同等級的人工智能風險進行分層治理。所謂“基于風險”的規制模式,本質上是以“對基本權利的潛在威脅”為風險等級認定標準,通過預防性控制實現對“人本價值”的守護。歐盟的統一立法路徑具有一定制度優勢:一是率先推出《人工智能法》,在全球規則制定中搶占先機,提升了國際話語權;二是系統性立法有助于防止成員國之間標準割裂與執法沖突,增強規則統一性與可執行性;三是強調基本權利導向,有利于提升公眾信任與社會接受度,為人工智能技術的可持續發展提供價值基礎。然而,該模式也存在局限,“不具有普適性,很難借鑒”。一方面,其高標準、強約束的合規要求可能加重企業特別是中小企業的研發負擔,抬高創新門檻;另一方面,制度設計過于規范化、程序化,可能難以應對技術快速演化帶來的動態風險,缺乏足夠的靈活性與適應性。也正因如此,歐盟的《人工智能法》未能如《通用數據保護條例》一樣,在世界范圍內產生“布魯塞爾效應”。

      (二)美國模式:聯邦去監管化趨勢下的多元規制補位

      相較于歐盟人工智能立法強調統一規范與基本權利保護,美國聯邦層面則展現出明顯的去監管化傾向。自2016年奧巴馬政府發布《國家人工智能研究與發展戰略計劃》以來,美國聯邦政策始終側重于通過研究資源整合、人才培育和技術標準建設推動人工智能發展,而非確立具有法律約束力的規制框架。2019年《保持美國在人工智能領域的領導地位》的行政命令,明確將人工智能列為國家戰略重點,治理工具以財政支持、資源配置和倫理框架為主導。2022年《芯片與科學法案》進一步加大對人工智能基礎研發與產業發展的財政投入,以鞏固美國的技術主導地位。2025年,特朗普政府重新執政后廢除了拜登政府發布的《關于安全、可靠和可信地開發和使用人工智能的行政命令》,重申“減輕監管負擔、保護創新自由”的政策導向。《人工智能權利法案藍圖》和《人工智能風險管理框架》等文件雖然提出了若干倫理原則與治理建議,但均不具備法律效力。

      在聯邦層面去監管化的背景下,部分州率先采取立法行動,填補規制空白。科羅拉多州于2024年出臺了《人工智能消費者保護法》(Senate Bill 24—205),又稱《科羅拉多人工智能法》,是美國首部系統性規制高風險人工智能的州級立法。該法以防止算法歧視、提升系統透明度為核心,明確開發者與部署者在人工智能運行過程中負有合規義務,要求其采取“合理謹慎措施”以防范已知或可合理預見的算法歧視風險。有學者指出,該法在結構上與歐盟《人工智能法》類似,均采取風險分級監管模式,并強調高風險人工智能的透明度與責任機制。但相較于歐盟側重基本權利保護與市場準入門檻,科羅拉多州立法更突出消費者導向,通過細化開發者與部署者的“合理注意義務”并列舉其履行義務(如風險評估、信息披露與影響報告)的具體情形,增強了法律的可操作性與執行確定性。

      加利福尼亞州作為位于技術創新前沿的關鍵州,于2024年通過了17項與人工智能相關的法律,涵蓋深度偽造治理、訓練數據透明、醫療場景中的人工智能提示義務以及生成內容的可識別性標識等關鍵議題,回應了社會對人工智能技術濫用風險的高度關注,體現出其在應對人工智能潛在風險與促進負責任技術發展上的堅定立場。例如,AB 2355法案聚焦于防范人工智能生成的深度偽造內容干預選舉程序;AB 2013法案則要求生成式人工智能開發者在其官方網站披露用于模型訓練的數據來源,以提升系統透明度與公共監督;AB 3030規定醫療保健提供者在使用生成式人工智能與患者溝通時,尤其在涉及臨床信息的場景中,須明確告知其使用人工智能生成內容的事實;SB 942則強制要求人工智能生成內容添加水印,以便區分人工與機器生成的信息。同年,猶他州亦出臺了《人工智能政策法案》,聚焦生成式人工智能的透明度義務、責任承擔與創新監管,要求特定行業在與消費者互動中明確披露AI身份,并禁止企業以AI為由規避法律責任。該法案設立人工智能政策辦公室與人工智能學習實驗室項目,推動監管沙盒計劃以實現創新與治理的動態平衡。2025年,猶他州進一步通過SB 226和SB 332對《人工智能政策法案》進行修訂,并通過HB 452為心理健康聊天機器人制定專項規范。

      除州級立法外,美國大模型開發企業及其從業人員展現出一定程度的自律意識。2024年8月,OpenAI和Anthropic與美國國家標準與技術研究院(National Institute of Standards and Technology,NIST)下屬的人工智能安全研究所簽署了合作協議,允許該研究所在新模型發布前后進行安全研究、測試和評估。與此同時,來自OpenAI、Anthropic、Google DeepMind和Meta的120多名員工聯合發表聲明,呼吁加州州長簽署《前沿人工智能模型安全與創新法案》(SB 1047),支持建立人工智能安全評估機制和國家級監管機構,以避免大模型在選舉干預、信息操控、深度偽造等領域的濫用。這些行動表明,在聯邦層面立法滯后的背景下,技術企業及從業者正通過推動地方立法與加強行業自律,積極填補治理空白,主動參與人工智能安全治理與風險防控。

      美國積極推動以技術聯盟和標準聯盟為核心的產業合作,強化其在前沿人工智能領域的全球影響力。技術聯盟方面,OpenAI、Anthropic、Meta、Google等領先企業與美國政府機構建立了多項合作關系,部分企業還與美國軍方及其盟友合作開發前沿人工智能技術,用于提升國家防御能力。標準聯盟方面,美國實質性主導多個國際人工智能標準組織。由國際標準化組織(ISO)與國際電工委員會(IEC)于2018年設立的ISO/IEC JTC1/SC 42,是全球首個專責推動人工智能標準化的技術委員會,涵蓋術語定義、治理架構、數據質量與可信度評估等關鍵領域。盡管該委員會為多國參與的國際平臺,但美國在其中扮演著核心角色。作為ISO體系中美國的代表機構,美國NIST深度參與標準制定過程,并主導或協同主持多個核心工作組,在技術方向制定與標準議題推進等方面具有高度主導力,使其在全球人工智能標準體系構建中占據關鍵地位。同時,總部設于美國的電氣與電子工程師協會(IEEE),由美國科研與產業界廣泛支持并主導,推動制定了包括IEEE 7000系列在內的多項人工智能倫理與技術標準,涵蓋算法透明性、數據治理、人機接口倫理與風險評估等重要領域。這些標準不僅成為美國本土人工智能研發的重要依據,也在全球范圍內被廣泛采納,持續擴大美國在國際人工智能治理中的制度影響力與標準主導力。

      總體來看,美國人工智能治理“松綁-補位”的二元結構,展現出聯邦層面的去監管化傾向,以及州級立法、行業自律與國際標準補位的治理格局。該模式在鼓勵技術突破、促進治理試驗與維護企業活力方面具有明顯優勢,亦面臨多重挑戰。一是聯邦層面法律長期缺位導致治理碎片化,州際標準不一、執法不均,顯著放大企業合規成本;二是在高風險應用場景中,行業自律難以形成有效約束機制,特別是對科技巨頭的制衡有限,數據濫用、算法歧視、虛假內容等問題頻繁暴露,亟須更強的外部監管介入;三是美國將人工智能治理與國家安全和地緣政治深度綁定,強化技術封鎖、產業控制與標準輸出,雖提升了其國際競爭力,卻也引發他國對其“數字霸權”與“科技封鎖”的警惕與批評,削弱其在全球人工智能治理中的合法性。

      (三)亞洲模式:韓國、日本與印度的多元探索

      在歐盟確立以基本權利保護為核心的嚴格風險規制模式、美國堅持以促進發展為導向的寬松監管模式之間,亞洲部分國家則展開多元探索,呈現出立法路徑與治理邏輯的多樣化與差異性,體現出在全球治理格局中尋求本土適應性與制度創新的努力。

      韓國于2024年12月正式通過《人工智能發展及信任基礎建立基本法》(又稱《人工智能基本法》),成為繼歐盟之后全球第二部統一的人工智能法。該法確立了“促進產業發展”與“構建可信環境”的雙重目標,既強調政府對人工智能研發和產業化的扶持責任,也注重建立技術標準、倫理規范與風險評估機制,力圖在鼓勵創新與防控風險之間取得平衡。針對對生命、安全或基本權利具有重大影響的“高影響人工智能”,該法未采取一刀切的禁用策略,而是通過風險管理機制予以規范引導,旨在降低監管不確定性,建立系統化的政策支持體系,從而激勵本土人工智能生態的發展,并提升韓國在全球規則制定與技術競爭中的地位。在治理架構上,韓國于同年9月設立直屬總統的國家人工智能委員會,作為協調國家人工智能政策的公私協作機構,強化中央政府的頂層設計能力,同時吸納產業、學界與社會各方參與,體現出協同治理與戰略統籌并重的制度取向。

      日本于2025年5月正式通過的《人工智能相關技術的研發及應用促進法》,成為全球首部以“促進人工智能創新發展”為核心目標的人工智能促進法。該法旨在構建一個最有利于人工智能研發和應用的國家治理框架,強調由政府主導戰略規劃,設立首相領導的人工智能戰略本部。在監管理念上,堅持“輕監管、促發展”的導向,不設處罰性條款,而是通過行政指導、政策建議以及“點名通報”等方式應對潛在風險,同時建立覆蓋基礎設施、科研資助、人才培養與國際合作的系統性政策支持機制。該法還鼓勵地方政府根據區域優勢制定本地AI振興計劃,推動政策多層次落地。為促進行業自律與標準建設,法律支持各行業結合自身特點制定倫理準則與安全規范,并提出構建開放式測試與驗證平臺,以加強人工智能系統的風險評估與安全驗證能力。整體來看,該法體現出日本促進人工智能發展的堅定信念,力圖在維護基本秩序的同時最大限度釋放創新活力。

      印度在人工智能發展方面潛力巨大,采取了務實的治理策略。2018年,印度政府發布《國家人工智能戰略》,提出“負責任的AI”原則,強調安全性、公平性、隱私保護與透明度等核心價值。目前,印度尚未出臺專門的人工智能立法,主要依賴《信息技術法》《數字個人數據保護法》《消費者保護法》《版權法》等現行法律對人工智能相關的隱私侵犯、數據濫用、消費者欺詐與知識產權問題進行基礎性規制。對于是否制定專門法律,印度政府始終持謹慎態度,2023年4月明確表示“目前無意制定人工智能相關法律”。與單一立法路徑不同,印度正在加大對以人工智能為核心的安全技術體系投入,資助包括印度理工學院在內的頂尖高校開發應對深度偽造、隱私泄露與網絡安全風險的技術方案,走出一條“技術—法律”結合的治理路徑。

      中國人工智能立法的路徑開釋

      中國的人工智能立法并非一蹴而就,而是在國家戰略的總體引領下,逐步形成以政策指引為先導、以專項法規為支撐、以地方實踐為補充的多層次治理格局。目前,專項立法和地方探索持續積累制度經驗,為未來推進統一立法進程提供有力支撐。

      (一)國家戰略的政策引領

      中國人工智能治理以國家戰略為引領,自上而下推動人工智能政策體系的搭建。2017年,國務院發布《新一代人工智能發展規劃》,首次將人工智能上升為國家核心戰略,提出“三步走”發展目標,明確到2030年建成世界主要人工智能創新中心。該規劃不僅制定了技術發展的時間表與路線圖,也為法律規制與制度建設奠定了政策基礎,提出制定法律法規與倫理規范、構建安全監管與風險評估體系,推動技術、產業與治理機制協同發展。在該戰略統領下,國家發展改革委、科技部、工業和信息化部、網信辦等部門先后出臺《促進新一代人工智能產業發展三年行動計劃(2018—2020年)》《新一代人工智能治理原則——發展負責任的人工智能》《新一代人工智能倫理規范》《國家新一代人工智能標準體系建設指南》以及《關于加快場景創新以人工智能高水平應用促進經濟高質量發展的指導意見》等政策文件,圍繞技術創新、應用推廣、標準制定與倫理治理,構建起覆蓋研發支持、場景應用、安全管理與價值引導的綜合性政策體系。

      (二)專項立法的靶向治理

      在頂層設計不斷釋放引導信號的同時,中國逐步通過“專項立法”實現人工智能的“靶向治理”,形成了內容上精細化、制度上去中心化的“功能性規制圖譜”。在算法規制方面,2022年出臺的《互聯網信息服務算法推薦管理規定》確立了公正、透明、合理的基本原則,強化算法服務提供者的主體責任,要求建立審核評估、備案分類等機制,同時賦予用戶知情權、選擇權與標簽管理權,并設立多層次責任追究體系,防止算法濫用。在深度偽造與虛假內容治理方面,2022年出臺的《互聯網信息服務深度合成管理規定》針對“AI換臉”“語音克隆”等技術濫用問題,設立技術標識與顯著提示雙重義務,推動治理從“事后應對”向“事前預防”轉型。在生成式人工智能服務治理方面,2023年出臺的《生成式人工智能服務管理暫行辦法》為大模型應用設立了首部專項規制立法,構建包容審慎、分類監管框架,涵蓋訓練數據、算法審查、服務標識、內容安全與用戶權益等義務,強化內容責任與跨部門協同監管。2025年,《人工智能生成合成內容標識辦法》進一步完善內容標識制度,要求提供者在文本、圖像、音視頻等生成內容中同步嵌入顯式與隱式標識,平臺亦須履行核驗義務,構建從源頭到傳播環節完整的標識鏈條,提升了生成內容的可識別性與可追溯性。除專項規制外,公安、交通等行業主管部門亦發布相關規章與標準,如《人形機器人創新發展指導意見》《國家車聯網產業標準體系建設指南(智能交通相關)》及《智能網聯汽車自動駕駛數據記錄系統》(GB 44497-2024),強化安全控制、倫理合規與數據記錄要求,已在實踐中發揮準法律作用,為未來正式立法奠定基礎。

      (三)地方層面的立法探索

      在國家戰略引領與專項規制之外,地方立法正成為推動中國人工智能法治建設的重要支撐。深圳于2022年出臺了《深圳經濟特區人工智能產業促進條例》,作為中國首部地方性人工智能法規,圍繞基礎研究、產業設施、應用拓展與風險治理等方面作出系統安排,確立以科技引領、應用驅動、以人為本、安全可控為核心的發展原則,創新性引入人工智能倫理委員會與分級分類監管機制。同年,上海市通過了《上海市促進人工智能產業發展條例》,系統構建以人為本、科技向善、創新驅動、市場主導的發展格局,強化算力、算法、數據三要素保障,推動集群化、國際化與場景化融合發展,設立應用開放機制與倫理治理框架。北京市則于2023年出臺《北京市促進通用人工智能創新發展的若干措施》,作為政策性指導文件,聚焦算力統籌、高質量數據供給、大模型體系建設與重點領域應用推廣,構建了兼顧創新支持與審慎監管的政策體系,成為全國首個專門面向通用人工智能的地方專項政策。以深圳、上海、北京為代表的地方性立法和政策,既發揮了制度創新“試驗場”的作用,也為國家統一立法積累了實踐經驗。

      (四)統一立法的籌備推進

      隨著規制對象日益增多、規范之間的銜接壓力加大,關于制定統一的人工智能法的呼聲日益高漲。特別是在地方與中央規范體系日益復雜、各類軟法文件并存的背景下,如何通過統一立法實現原則統一、結構整合與制度協調,成為理論與實務界關注的焦點。需要指出,本文所稱“統一立法”,包括但不限于“大而全”的綜合法典,還包括具有一定統領性和普遍適用性的其他法律制度安排。

      自2023年以來,學界已發布多部人工智能法專家建議稿,如中國社會科學院法學研究所周輝研究員等牽頭起草的《人工智能示范法(專家建議稿)2.0》和中國政法大學數據法治研究院張凌寒教授等聯合發布的《人工智能法(學者建議稿)》。前者提出以人為本、透明可問責等原則,構建發展支持體系,設立負面清單和許可備案制度,并明確研發者的安全性與倫理義務,同時關注降低合規成本、支持開源生態,規范訓練數據與生成內容保護。后者則以九章九十六條系統涵蓋發展促進、權益保障、安全義務和國際合作,強調對人的尊嚴與隱私的保護,提出知情權、拒絕權及對數字弱勢群體的特別保護,并引入風險評估、監管沙盒和分級分類機制,力求在安全與創新之間取得平衡。盡管兩者在內容上存在差異,但均體現出旨在通過一部綜合性法律實現發展促進、風險治理與權利保障等多重目標的制度期待。

      從國家立法計劃來看,2024年《全國人大常委會立法工作計劃》提出“研究人工智能健康發展的立法項目”,《國務院2024年度立法工作計劃》則明確將人工智能法草案列入擬提請全國人大常委會會議審議的預備項目,表明人工智能統一立法已從理論構想邁入立法實踐的關鍵階段。然而,隨著2025年美國特朗普政府上臺后在人工智能領域推行去監管化政策,以及我國大模型技術實現突破性發展,人工智能立法面臨新的國際局勢。在此背景下,今年全國兩會期間,全國人大常委會并未延續此前審議人工智能法草案的計劃,而是表明“圍繞人工智能、數字經濟、大數據等新興領域加強立法研究”。這一變化在一定程度上表明,我國在推進人工智能立法進程中,正在審慎評估國際動態與國內技術發展,力求在促進創新與規范治理之間尋求更為靈活、穩健的立法路徑。

      (五)中國路徑的基本特征

      整體來看,中國人工智能立法展現出戰略引領、專項立法、地方探索、審慎推進的多元協同特征,既體現出積極構建規范體系的制度主動性,也兼顧了技術快速演進與國際競爭格局變化下對制度韌性與彈性的現實要求。首先,中國人工智能治理的起點并非直接立法,而是以《新一代人工智能發展規劃》等國家戰略為統領,優先構建發展導向、倫理引導與風險防控并重的政策體系,通過頂層設計為后續立法奠定基礎。其次,體現出靶向治理的專項規制特征,采取“小切口、分領域”的方法,圍繞算法推薦、深度合成、生成式人工智能服務、內容標識等重要議題,建立精細化的治理規則,及時應對技術發展帶來的具體風險。再次,突出“地方探索—全國推行”的制度演進機制。深圳、上海等地通過地方性立法和政策創新,在倫理治理、產業培育和應用拓展方面積累了有益經驗,為國家層面統一立法提供制度樣本和實踐經驗,形成了中央統籌、地方試驗、上下聯動的治理格局。最后,體現出以動態調整應對技術發展不確定性的審慎推進邏輯。在全球科技競爭與國內技術迭代加速的背景下,中國在推進統一立法進程中保持靈活應變、穩步前行的策略,努力在促進創新與強化治理之間尋求動態平衡,展現出高度的戰略敏感性與制度適應力。

      構建人工智能立法的中國模式

      在全球人工智能科技競賽與規則競爭日益激烈的背景下,中國亟須在促進技術發展與實現有效治理之間實現動態平衡,探索契合本國產業基礎與治理實踐的人工智能立法模式。中國人工智能立法應圍繞以下幾個關鍵問題展開系統謀劃:第一,是否立法,即是否有必要通過統一立法回應人工智能帶來的治理挑戰與規范空白;第二,何時立法,即如何把握統一立法的適宜時機,避免過早介入而抑制創新以及過遲規制而錯失治理良機;第三,立什么法,即應立何種類型的人工智能法,明確立法的功能定位與體系歸屬;第四,如何立法,即采取何種統一立法方式,在專項立法與統領性立法、軟法與硬法之間實現有效協調。

      (一)是否立法:回應技術變革與治理需求的制度必然

      生成式人工智能等大模型技術,正在深刻重塑信息生成、知識生產、產業結構與國家治理等領域,嵌入到規則形成、價值分配和行為規范等治理核心環節,同時帶來諸多風險與挑戰。法律作為社會規范的基礎制度,有必要填補規范空白,引導技術安全健康發展。

      首先,從風險治理角度看,人工智能引發的“幻覺生成”“算法歧視”“黑箱決策”“數據濫用”“責任模糊”等風險,已超出現有法律的適用邊界,挑戰傳統法律基于“行為明確、結果清晰、主體特定”的歸責邏輯。由于這些風險具有滯后顯現、歸責鏈條復雜等特點,傳統法律難以形成有效規制合力。歐盟《人工智能法》通過風險等級實現分級監管;美國NIST發布的《人工智能風險管理框架》,將風險評估與監測納入全生命周期治理。以上國際經驗表明,構建專門法律體系以實現風險識別、規則整合與責任協調,已成為全球人工智能治理的重點方向。

      其次,從權利保障與社會公平角度看,人工智能廣泛應用于就業、教育、醫療、司法等關鍵領域,其算法邏輯和數據偏見可能加劇社會不平等,損害弱勢群體權利。同時,“數字鴻溝”問題也在擴大,部分群體在獲取和利用數字資源方面處于不利地位。因此,構建系統性的人工智能法律框架,不僅是保護個體權利的需要,更是實現公共服務公平化與社會正義的制度保障。

      再次,從國家戰略與全球競爭角度看,人工智能治理能力已成為衡量國家制度競爭力的重要標志。當前,我國以部門規章、政策文件和地方探索為主導的治理模式,“面對人工智能問題僅能分散、碎片化適用”,在協調統一、規范銜接與法律約束力方面存在不足。若繼續依賴碎片化管理與軟性調控,不僅難以形成系統性制度供給,也難以在全球人工智能治理規則構建過程中掌握主動權。制定人工智能法不僅有助于提升治理體系的系統性和法治化水平,也是在國際規則博弈中提供“中國方案”的關鍵舉措。

      最后,從治理現代化角度看,人工智能正推動治理模式向數據驅動、模型分析和智能響應轉型,深度嵌入公共管理、社會服務和司法執法等領域,對法律制度提出新的支撐要求。若缺乏相應的法律規范,將導致合法性基礎薄弱、權責不清、執行失衡等問題,甚至加劇“治理赤字”。因此,推動人工智能統一立法,構建人工智能的法律治理體系,是推進“法治現代化中國模式”的題中應有之義。

      (二)何時立法:避免過早規制與滯后治理的時機把握

      人工智能技術的演進具有高度的不確定性與非線性特征,其發展路徑難以完全預判,技術成熟周期、風險顯現時點與社會接受程度常常存在時間錯位。在這種背景下,立法時機的選擇直接關系到制度供給的有效性與治理體系的適配性。立法過早,可能因技術路徑尚未穩定、風險類型尚未清晰,而導致法律規范缺乏針對性與可執行性,進而抑制技術創新、影響新興業態;反之,立法滯后,則可能在風險已形成、后果已蔓延的情況下失去規范與治理的窗口期,難以及時回應社會關切,甚至引發治理信任危機。

      1.技術演化的現實約束:避免“路徑鎖定”與“規制先驗化”

      從技術哲學視角看,技術演化并非受人的意志主導,而具有“效率驅動、自主演化”的內在邏輯。雅克·埃呂爾(Jacques Ellul)指出,技術本質上是在人類活動的各個領域中理性得出的、在特定發展階段具有絕對效率的所有方法的總和;凱文·凱利(Kevin Kelly)亦認為,技術以自我衍生、遞進的方式不斷催生新的發明,這種演化使技術發展呈現出一定的不可逆性。許多技術發明在全球多個區域同時出現,正是這一邏輯的體現,說明技術的發展往往不是偶然事件,而是結構性與階段性的歷史結果。生成式人工智能目前仍處于Gartner技術成熟度曲線中的“高期望峰值期”(Peak of Inflated Expectations),其底層邏輯尚在快速演化,幻覺生成、可解釋性差、數據依賴性強等核心難題仍未有效解決。此時若過早制定全面統一的人工智能法,可能因以當前技術為基準而陷入“路徑鎖定”,限制未來替代性技術的發展空間;同時也可能出現“規制先驗化”問題, 即在風險尚未充分識別、問題尚未明晰之前提前設定制度框架,導致監管錯配與法律適應性不足。 面對技術發展的高度不確定性與復雜性,人工智能立法應當擇機而動,采取漸進式、包容性、反饋驅動的立法策略,契合技術發展不確定性的現實約束與治理體系的彈性需求。

      2.治理經驗的實踐基礎:專項立法與地方探索的制度積累

      科學的立法時機應以充分的制度積累與治理反饋為前提。近年來,我國在人工智能治理實踐中逐步形成了專項規制與地方試驗相互配合的分層推進格局。在國家層面,陸續出臺了若干面向具體技術場景的專項法規,針對算法推薦、深度偽造、生成式人工智能等問題突出領域建立初步的制度響應機制,不僅有助于及時填補技術風險引發的監管空白,也為未來統一立法提供了可供借鑒的立法經驗。與此同時,深圳、上海、北京等地在回應區域產業發展訴求的同時,積極推動地方性法律政策探索,呈現出多樣化的制度工具與治理路徑,為國家層面的制度整合提供寶貴經驗。總體而言,國家專項規制與地方立法試點已共同構成我國人工智能治理體系的重要組成部分,逐步積累從局部規范到系統建構的實踐經驗。在此基礎上,適時啟動以促進發展、規則整合為導向的統一立法,將有助于實現治理框架從碎片拼接向體系構建的轉變。

      3.社會共識的價值底座:從倫理分歧到規范確認

      人工智能立法不僅是技術規制工具,更承擔著價值協調、利益分配、權利保護與倫理建構的制度使命。不同于傳統工業技術,人工智能以其自主性、復雜性和滲透性深度嵌入信息傳播、資源分配、身份識別與社會評價等核心機制,法律規制面臨價值多元、理念沖突與倫理張力等挑戰。目前,諸如訓練數據合法性、生成物的著作權歸屬、數據產權性質、算法公平性評估、模型可解釋性以及AI是否可被擬制為“數字人格”等關鍵議題,仍處于高度爭議階段。公眾對算法邏輯、數據利用后果及潛在風險的理解滯后,信息不對稱與認知分裂明顯。在社會共識尚未充分形成的情況下,若立法介入并試圖先行確立倫理邊界,可能導致規范錯配與制度空轉,削弱法治回應的正當性與時效性。因此,中國推進人工智能統一立法,應建立在初步倫理共識和相對穩定的社會認知基礎上,避免將立法簡化為技術條文的羅列或價值強加的工具。應當通過科普傳播與風險教育等方式,在社會層面培育理性認知與參與氛圍,設立倫理評估、專家咨詢與多元利益表達機制,促成各方在價值判斷上的最低共識,通過程序的開放性與協商性提升立法的公眾接受度與現實效力。

      (三)立什么法:“促進法—基本法—綜合法”的漸進路徑

      在明確人工智能立法的必要性與適宜時機之后,立法路徑的核心問題轉向“應當立什么樣的法”。面對人工智能技術跨領域、多場景、多主體的特征,中國不宜一開始就制定一部全面綜合的統一法典,而應循序漸進地推進人工智能立法進程。本文主張以《人工智能促進法》為先導,繼而推動《人工智能基本法》作為制度母法,最終在技術發展與治理經驗成熟之后制定統一的《人工智能法》。

      1.第一階段:制定《人工智能促進法》

      當前,以生成式人工智能為典型的人工智能一攬子技術尚處于技術高預期階段,風險類型未穩定、倫理共識尚未達成,立法實踐面臨“概念不清、定性不準、理念不彰、范疇不明、脈絡不暢”等諸多問題,若貿然制定“大而全”的統一立法,易導致技術路徑鎖定、規制錯配與創新受阻。為此,人工智能立法的第一階段應優先確立促進性制度路徑,通過制定《人工智能促進法》,明確發展導向與統籌機制,引導技術演進與資源配置,整合政策工具,構建產業支持體系,并以軟性機制嵌入倫理審議與風險監測,推動技術發展與制度供給協同演進。

      《人工智能促進法》的統一性,不在于功能全面與形式集中,而是體現在價值共識確立、概念術語統一以及制度機制協同上:一是確立“安全、透明、公正、可控”等核心價值,統一治理方向,避免目標沖突;二是厘清關鍵術語與技術邊界,奠定跨領域政策與立法的共同語言基礎;三是設立發展戰略、倫理審查與監管協同等統籌機制,強化制度銜接與協同運作。對此,《深圳經濟特區人工智能產業促進條例》與《上海市促進人工智能產業發展條例》為全國性的《人工智能促進法》提供了重要的實踐參考。深圳與上海的地方性立法不僅具有地方特色,而且在價值引導、概念統一與機制協同方面具有一致性,充分體現“促進法”作為引導性制度平臺的功能。深圳強調“科技引領、應用驅動、以人為本、安全可控”,更側重基礎設施建設與場景開放;上海主張“以人為本、科技向善、市場主導”,更聚焦算力算法建設與全球協作,展現出地方的多樣性實踐。未來應在總結地方經驗的基礎上,確立統一價值目標、概念術語與協同機制,構建靈活、開放的治理架構,既為技術創新提供正向引導,也為后續基本法與綜合法奠定制度基礎。

      2.第二階段:制定《人工智能基本法》

      在《人工智能促進法》完成價值共識與發展統籌之后,立法進程應進入第二階段,制定《人工智能基本法》。《人工智能基本法》作為“治理框架法”,側重底線設定與規范統攝,其體系設計應堅持“原則性、結構性、協調性”,不拘泥于短期政策目標,也不試圖詳盡規制所有技術場景,而是致力于確立統一的底層法理與制度邏輯。在功能定位上,該法應完成三項核心任務:一是確立治理共識,明確“發展與安全并重”“以人為本”“風險可控”“可問責性”等核心價值原則,為各領域規制提供統一價值引導;二是劃定權責邊界,厘清國家、地方、平臺、用戶在人工智能生命周期中的職責分工,防止責任重疊或空缺;三是配置關鍵機制,建立監管協調、倫理審議、風險評估、責任邊界與軟法對接等制度安排,推動治理模式從單向規制走向多元協同。從圖依布納(Gunther Teubner)的“反身性法”理論出發,在高度復雜與不確定的技術環境中,法律應通過制度引導而非強制干預,促進社會子系統之間的自我調節與結構互動。在這一意義上,《人工智能基本法》應被視為一個動態適應的治理框架,通過程序設計與反饋機制吸納地方試點、行業經驗與國際規范,為未來綜合性立法提供制度基礎,其核心使命在于搭建人工智能治理體系的制度底座,而非承擔最終規制功能。這一階段不僅為多元規制提供統一的價值共識與結構支撐,也為第三階段《人工智能法》的系統整合奠定堅實基礎。

      3.第三階段:制定綜合性的《人工智能法》

      在人工智能技術日益成熟、主要風險類型基本明確、相關制度機制經過充分試驗的基礎上,立法進程將進入第三階段,即制定綜合性的《人工智能法》。該法區別于“統攝性藍圖”定位的《人工智能基本法》,其核心任務是整合前期制度成果,構建結構統一、規則協調、機制配套的治理法典,實現從制度構想到制度定型的躍遷。《人工智能法》應是一部具有高度組織性與可操作性的綜合性立法,其目標并非“包打天下”,而是作為制度中樞,在保持體系開放與動態反饋能力的同時,統一整合數據治理、算法責任、風險評估、倫理審查、權利保障與跨境合作等關鍵規范內容,并與技術標準、實施細則、行業準則之間形成有效銜接,構建模塊化、可拓展的制度體系。從體系功能上看,該法的出臺將標志著中國人工智能治理進入制度成熟階段,實現“從分散立法走向系統法治”的關鍵跨越,也將為我國在全球人工智能治理競爭中提供獨具特色的法律表達。通過“促進法—基本法—綜合法”的漸進式立法路徑,中國將在保持制度彈性的基礎上完成規則閉環,為人工智能未來發展和國家治理現代化提供持續而有韌性的法治支撐。

      (四)如何立法:人工智能立法的體系構建邏輯

      在人工智能領域,傳統法律已難以應對多元技術演化、復雜場景差異與動態風險類型交織的現實挑戰。為實現有效規制與發展促進的雙重目標,中國人工智能立法亟須在“如何立法”的問題上實現范式轉換,確立一種以“分層統籌、程序嵌入、機制彈性”為核心的現代化制度建構邏輯。

      首先,應確立“分層統籌”的制度結構邏輯。鑒于人工智能應用場景高度異質、風險類型復雜多樣,人工智能立法不宜采取“大而全式”的立法進路,而應通過設定治理價值底線與原則性框架,統攝各類具體規制安排,在此基礎上構建核心規則引領、專項規制配套、軟法機制協同的多層次制度體系。在縱向維度上,應構建國家、行業、地方多級互動的立法體系,鼓勵地方結合本地產業基礎和應用需求,制定促進條例或試點政策,探索差異化制度路徑;在橫向維度上,“不宜將法律秩序等同于國家的強制秩序,規范多元應成為合作治理體系的結構特征之一”,應嵌入倫理指引、行業標準、技術規范等軟法機制,增強法律體系的靈活性與適應力。這種分層協同、剛柔并濟的治理架構,既可回應人工智能技術發展的動態性與多樣性,也有助于推動規范體系的銜接與整合。

      其次,應強化“程序嵌入”的治理意識。面對人工智能發展的高度不確定性與風險演化,僅依賴實體規則難以構建穩健治理體系,必須通過程序機制實現靈活應對。在立法階段,應明確公眾參與、專家咨詢和多元協商程序,提升立法的公開性與科學性;在治理運行中,應設置程序披露、風險評估、定期審查等條款,增強制度的動態調整能力;在執法環節,應完善協同監管、平臺履責與責任追究機制,提升執行效能。更重要的是,程序機制不僅提升治理靈活性,也為多元主體參與提供制度化路徑,推動形成政府、企業、行業組織與公眾共治的法治生態。正如有學者所指出的,治理應從算法設計源頭嵌入“技術性正當程序”,通過程序代碼化方式實現公開性、可解釋性與責任機制,從而重塑正當程序的結構邏輯。應當注意,程序治理不應被簡化為形式主義的程序設置,而應成為實現法治內在正當性、推動共治架構落地的重要支柱。

      最后,應構建“時間—空間”雙重彈性框架,增強法律適應性與治理韌性。在快速演化的技術環境中,法律不應被視為靜態規則的集合,而應具備動態調整與制度演進的能力,預設“修正—退出—升級”機制。一是通過動態授權條款,賦予行政機關根據技術進展和監管需求及時制定或調整實施細則、技術標準等的權力;二是設立立法評估機制,定期評估法律實施效果,并據此推動條款優化與制度完善;三是推動監管沙盒制度的常態化運行,為新興技術提供在受控環境下探索創新的空間,并在實踐中積累風險識別與治理經驗。

      結論

      在人工智能深刻塑造社會生產生活方式與國家治理機制的背景下,人工智能立法作為引導和規范技術發展的關鍵制度工具,已成為各國人工智能治理能力的重要標志。放眼全球,人工智能立法呈現出路徑多元、取向各異的發展態勢。歐盟通過統一立法確立了以基于權利保護為核心的風險分級治理模式;美國形成聯邦去監管化以及州級立法、行業自律與國際標準的規制補位的治理格局;韓國、日本與印度等國家則在促進發展與規范治理之間探索多樣化路徑。這些差異背后,反映出各國在技術基礎、戰略目標、法律傳統與治理理念等方面的差異與抉擇。

      中國在全球人工智能治理格局中,形成了一條兼具本土特色與制度理性的漸進式立法路徑。自《新一代人工智能發展規劃》確立國家戰略起點以來,中國逐步通過專項規制應對關鍵風險、依托地方試點推動制度創新,并在統籌推進統一立法方面穩步前行,體現出“政策引導—分層治理—系統整合”的制度演化邏輯。在此過程中,中國人工智能治理強調規范供給的適度彈性,注重底線價值確立、風險類型識別與責任機制建構,為應對快速變化的技術環境預留了制度調適空間。

      展望未來,人工智能立法需在回應前沿技術引發的權利沖突與風險挑戰的同時,服務于國家科技安全與全球規則構建的雙重戰略目標。在制度設計上,應堅持發展導向與風險治理并重,強化底線規制與包容激勵的協調統一,逐步通過“促進法—基本法—綜合法”的三階段路徑,構建統一的價值框架、清晰的權責結構與靈活的制度調適機制,推動人工智能治理體系向系統化、法治化方向轉型升級。

      -向上滑動,查看完整目錄-

      《交大法學》2025年第6期目錄

      【習近平法治思想研究】

      1.論習近平關于促進民營經濟發展法治保障重要論述的核心要義和理論創新

      徐亞文、陳怡靜

      2.論習近平法治思想的預防性法律制度理論

      趙毅宇

      【科技創新與數字法治】

      3.人工智能立法的價值取向與模式比較

      鄭戈

      4.未來尚未到來

      ——人工智能統一立法模式的內在悖論

      王凌皞

      5.全球人工智能立法的多元趨勢與中國模式

      付新華

      【法學原理與制度變革】

      6.《民法典》視域下虛假身份行為效力釋論

      田韶華

      7.貨幣返還請求權規則之反思與重述

      ——以騙取金錢償債案為例

      其木提

      8.論空域權與空間權的分設

      ——低空經濟價值要素釋放的法治供給

      袁曾

      9.平臺內勢力的來源、濫用危害與監管策略

      曲創、劉翰臻、鐘興達

      【法學新銳與新知】

      10. 刑事辯護變革的契機:人機協作司法模式

      周翔

      11.自然犯的法定犯化:“違反國家有關規定”對侵犯公民個人信息罪的影響

      童云峰

      12.OECD“雙支柱”方案背景下數字企業課稅規則的反思與完善

      ——以信息基礎設施為切入點

      喬博娟

      《交大法學》于2010年以“以書代刊”形式創刊,2012年獲批正式刊號,并于同年以季刊發行,2022年改為雙月刊。期間歷時整整12年,恰是地支一輪。作為卷帙浩繁法學期刊中的如米苔花,秉承“君子有所為,有所不為;知其可為而為之,知其不可為而不為”之理念,默默成長,希望以點滴努力,開辟言路,傳達百家之言,給時代留下可供回望和審思的法學作品和思想。本刊改為雙月刊后,每單月出版一期。在此之際,片刻駐足、冷靜回望,如何提高學術品位,構建表里澄澈的學術公共場域,任重而道遠,我們自當立意勤勉耕耘。

      點擊進入下方小程序

      獲取專屬解決方案~

      責任編輯 | 王睿

      審核人員 | 張文碩 張科

      本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      北大法律信息網 incentive-icons
      北大法律信息網
      法律綜合性網站
      11061文章數 17485關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版 主站蜘蛛池模板: 亚洲不卡视频| 亚洲色鬼| 久久久av男人的天堂| 欧美最猛性xxxxx大叫| 亚洲成人中出| 亚洲最大的成人网| 国产熟睡乱子伦午夜视频| 国产又色又刺激高潮视频| 亚洲aⅴ天堂av天堂无码麻豆| 顺义区| 国产浓毛大泬熟妇视频| 狠狠躁夜夜躁人人爽天天5| 日本特黄特色aaa大片免费| 久久精品无码中文字幕| 九九热色| 欧美乱大交aaaa片if| 伊人激情av一区二区三区| 黑人巨大精品欧美| 邢台县| 亚洲123区| 亚州九九久久| 国产成人av免费观看| 欧美日韩亚洲国产| 成在线人永久免费视频播放| 国产精品高清一区二区三区不卡| 国产人妻精品午夜福利免费| 亚洲av第一页| 无码中文幕| 成人性影院| 精品国产人妻一区二区三区| 亚洲国产理论片在线播放| 国产成人av一区二区| 国产福利AV| 蜜臂AV| 日韩狼人精品在线观看| 亚洲无码成人电影| 九九综合九色综合网站| 亚洲中文字幕第一页在线| 国产亚洲精久久久久久无码77777| 人妻图区| 超碰日韩|