【副標題】漸進式治理范式的構建
【作者】房保國(中國政法大學證據科學教育部重點實驗室、司法文明協同創新中心副教授,法學博士)
【來源】北大法寶法學期刊庫《河南財經政法大學學報》2026年第2期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。
![]()
內容提要:當前全球人工智能統一立法的熱潮,忽視了技術不確定性與法律穩定性之間的根本性沖突。基于技術哲學與制度理性的內在張力,揭示激進立法模式在本體論、目標論及方法論上的多重悖論,批判其引發的監管錯位與創新抑制。通過剖析歐盟規制僵化與美國分散治理等域外實踐,證成統一立法將付出高昂治理代價。主張我國立法應暫緩法典化模式,轉而構建“時間—空間”彈性框架:在時間維度建立技術成熟度觸發立法與反身性迭代機制;在空間維度形成國家元規則錨定與領域理性具象化的分層治理。法治智慧在于以制度謙抑性容納技術不確定性,通過漸進式治理范式平衡創新激勵與風險防控,為人工智能高質量發展提供法治韌性。
關鍵詞:人工智能立法;漸進式治理;監管沙盒;法治韌性
目次 一、立法的本體論困境 二、立法的價值整合困境 三、立法的路徑依賴困境 四、立法的域外實踐鏡鑒 五、立法范式的重構 六、結語
全球人工智能立法熱潮的涌動,折射出技術治理時代的深層治理焦慮。一場以“規制未來”為導向的制度競賽已然鋪開,而急于借統一立法構筑風險屏障的集體沖動,恰恰暴露了法律面對科技革命的認知困局——以工業時代的傳統規制工具,應對數字時代的顛覆性技術生態。立足技術哲學與制度理性的本質沖突,對統一立法模式的深度反思具有現實必要性。人工智能技術的核心特質在于其“未完成性”,技術范式的迭代尚未定型,算法權力的社會接受邊界尚未形成共識,此時以剛性法典固化技術定義與責任框架,不僅可能因規則錯配扼殺創新活力,更會造成法律解釋體系與技術本體的結構性割裂。
更深層的治理悖論根植于價值目標的不可通約性,安全訴求與發展需求并非天然耦合,其背后潛藏著多重價值張力,統一立法以“安全優先”統合多元利益的嘗試,暗含將復雜治理命題簡化為技術管控的危險傾向。直面技術、倫理與監管的三重不確定性,中國立法者所需的并非立法效率的競速比拼,而是立法哲學的自覺覺醒,唯有以戰略耐心替代立法沖動,構建漸進式治理范式,方能在技術動態性與制度彈性的辯證互動中,培育兼具適應性與權威性的法治生命力。
一
立法的本體論困境
“人工智能的不確定性既是推動全球人工智能立法浪潮的共識性動因,也是引發各國立法實踐森羅萬象的分歧性誘因。”人工智能治理的困境,來自技術演進的不確定性與法律秩序對穩定性的內在要求之間的本體論矛盾。此沖突不是表象層面的“時間差”或“信息差”問題,而是扎根于技術理性和制度理性在范式上的斷裂——前者遵循指數級增長、顛覆性創新的邏輯;后者依靠周期性更新且有可預期性的規范邏輯。當立法者試圖通過確定性的規范框架對非確定性的技術系統加以約束時,不僅面臨規制實際效果的消解,還會引起法律制度的本體性風險。
(一)技術動態性與法律靜態性的內在矛盾
人工智能技術的本質是持續自我超越的“涌現系統”,其發展遵循非線性躍遷路徑。深度學習模型通過參數規模的量級增長觸發功能質變,生成式系統在數據迭代中涌現出超越預設目標的能力。這種演進模式使法律陷入定義困境:任何基于當前技術形態的概念固化,在規范生效時便已滯后于技術現實。法律文本的封閉性與技術演進的開放性形成結構性對抗:法律依賴明確邊界以確立秩序,而技術通過突破既有范疇實現進化。
同時,法律歸責機制的認識論基礎與技術的“黑箱”效應存在斷裂。傳統侵權法、產品責任法以“行為—結果”的可追溯因果鏈為根基,要求精確識別過錯節點與責任主體。深度神經網絡隱層參數的演化具有不可解析性,其決策過程無法映射出清晰的法律因果關系。當自動駕駛系統因多個傳感器數據起沖突而引發事故,或醫療診斷算法受對抗樣本干擾產生誤判時,法律沒辦法追溯具體的決策路徑,也很難找準可歸責的技術漏洞。認知上的鴻溝展現了法律與技術在知識生產邏輯中的差別:法律依托經驗歸納與邏輯演繹形成確定性知識,而人工智能依靠概率關聯和涌現學習生成非確定的產出。
技術的動態性對法律體系的沖擊,更體現在規范效力的解構上。當生成式 AI 輸出具備法律效力的合同文本,或智能合約自動實施跨境交易時,技術的“準立法”與“準司法”功能不斷侵蝕法律專屬范圍。這種解構沖擊著法律作為社會元治理系統的權威地位——算法憑借代碼規則重塑行為范式,法律卻面臨著淪為技術理性實施工具的風險。在此情境下,統一立法試圖以靜態框架約束動態技術,實則陷入雙重異化:既無法有效規制技術風險,又可能因過度干預阻礙創新,最終導致法律公信力與技術先進性的同步消解。
化解此矛盾需要回歸法律的功能定位重構,法律不應扮演技術發展的規劃師,而應成為技術與社會耦合的界面機制。這要求在認識論層面承認技術理性的不可完全馴服性,接納法律作為“未完成方案”的開放性;在方法論層面構建反身性規范框架,通過監管沙盒等動態授權規則替代靜態禁止條款,通過算法透明度分級義務等元規則替代具體行為指令。唯有將法律從“確定性供給者”轉型為“不確定性協調者”,方能在技術風暴中守護人之為人的價值坐標。
(二)風險不可知性與規則預設性的認知鴻溝
人工智能風險治理的困境,源于其內在的“涌現性”和“次生性”與法律規則預設性之間的沖突。此兩類風險具有動態生成與場景依賴特質,無法通過先驗建模完全預判,而是在人機交互過程中逐步顯現。傳統法律規制依賴“風險—規則”的線性映射邏輯,立法者基于已知風險類型預設禁止性規范與責任框架,而人工智能風險的非結構化與跨域傳導性顛覆了這一邏輯。以算法黑箱為例,“比起人類心智黑箱,對算法黑箱要求更高的透明度”,其決策過程的不可解析性導致法律歸責所需的因果關系鏈條斷裂。更復雜的是,單一技術風險可能觸發多領域系統性危機——自動駕駛數據采集可能同時沖擊隱私權、地理信息安全與市場競爭秩序,使法律試圖構建的“風險清單”模式陷入認知危機:將流動的技術生態簡化為靜態分類表,既低估技術演化的混沌性,又高估人類理性的預見能力。
法律對確定性的追求,使其天然傾向構建封閉規則體系,而人工智能風險的不可知性要求規則保持動態開放性,二者形成深層張力。其一,規則滯后性。立法周期與技術迭代速率存在數量級差異:生成式 AI 從研發到商業化僅需數月,而法律修訂需經歷漫長程序,耗時數年,導致法律文本生效時其規制的技術形態可能已被新一代范式取代。其二,解釋論失效。法律解釋依賴既有規范涵攝新事實,但人工智能不斷挑戰法律基本范疇。例如,要求生成內容披露訓練數據來源的規則,在合成數據技術普及后喪失可執行性;算法透明義務在聯邦學習等隱私保護場景中,可能與保密需求直接沖突。
更需警惕者,乃基于已知風險構建的規則體系可能引發認知路徑依賴,形成三重治理悖論。第一,目標置換效應。立法者為追求形式完備,將資源集中于已識別的數據泄露等風險類型,卻忽視了模型自主性導致的指令規避等新興風險。第二,創新抑制循環。嚴苛的合規要求迫使企業將資源投向風險規避而非技術突破,如為滿足內容安全審查而過度清洗訓練數據,導致模型認知能力退化。第三,系統性風險相關的盲區。規則錨定使監管者陷入局部風險防控當中,失去對技術生態整體演變的洞察力,當法律把重點放在數據采集規制上時,可能會忽略因合成數據引起的版權重構難題。
擺脫當前困境,需要重新構建法律和技術的關系樣式。一是從確定性預設衍變到反身性調適,法律應舍棄充當“終極風險目錄”的角色定位,取而代之建立觸發式響應機制,借助技術成熟度評估動態啟動規制流程,采用監管沙盒對規則適配性進行測試;二是從全域統一過渡到領域理性,在醫療、金融等高危領域設定具象規則,而在創新密集型領域還是保留原則性指引;三是從規則錨定到元規則構建,將立法的聚焦重點轉移到風險動態監測報告義務、跨部門協同治理流程等程序性框架上,為技術發展留存規范的彈性空間。
(三)技術異質性與立法統一性的結構沖突
人工智能技術體系是多元范式并存的非均質系統,其內部存在符號主義(邏輯推理驅動)、聯結主義(神經網絡架構)與行為主義(環境交互導向)等迥異的技術范式。通用大模型追求認知泛化能力,垂直領域 AI 聚焦專業場景優化,具身智能則強調物理世界的嵌入與交互,此三類技術的內在邏輯、發展軌跡及風險生成機制具有差異。
首先,邏輯沖突。符號主義系統依賴預設規則的可解釋性,而聯結主義模型通過數據訓練涌現不可預測的功能,二者對“透明度”“可控性”等法律要求存在沖突。其次,發展異步性。通用人工智能的技術突破可能引發跨領域連鎖變革,而垂直領域技術迭代則遵循行業特定節奏,統一立法的靜態框架無法適配異步演進的技術生命周期。最后,風險異質性。通用系統的風險源于認知泛化偏差,垂直系統的風險則集中于領域專業性失效,具身智能更涉及物理安全與倫理決策的雙重挑戰。強行將異質技術納入單一法律框架,必然導致結構性規制錯配——對規則驅動的專家系統約束不足,而對具身智能等新興技術過度干預。
技術異質性更深層地體現在社會化場景的實踐理性差異之中,人工智能嵌入社會系統的過程呈現毛細血管級分化,不同領域形成獨特的價值排序和規制需求。醫療領域的核心訴求是生命尊嚴保障,算法決策需平衡診斷效率與誤診責任;金融領域的規制要害在于系統性風險防控,需重點約束算法同質化引發的市場共振;創作領域的爭議焦點是知識產權體系重構,需在數據訓練與版權保護間尋找平衡點。法律若忽視領域理性的不可通約性,以抽象統一的“安全”“透明”原則覆蓋所有場景,將導致規則與實踐的深度脫嵌——不僅是技術適配失效,更是法律正當性基礎的消解。
統一立法框架的結構性缺陷,進一步表現為責任配置的范式沖突。傳統法律以“行為—責任”的線性因果關系為歸責基礎,但人工智能在多主體協作中形成責任彌散:開發者承擔算法設計缺陷責任,但神經網絡的涌現特性使缺陷認定超越傳統產品責任范疇;使用者負有場景化監管義務,其過錯認定需結合技術可控性與專業認知水平;系統自身的自主決策則挑戰人類中心主義責任體系。統一立法試圖以標準化責任條款覆蓋異質主體,實則模糊了技術因果鏈中的權責對應關系。例如,“自動駕駛技術在不同階段面臨的風險類型不同,包括生產制造階段的制造風險與測試風險,以及應用階段的過失風險與故意風險”,要求自動駕駛開發者承擔無過錯責任可能抑制創新,而將責任完全轉嫁給使用者又忽視了算法黑箱的認知壁壘。
化解沖突需重構分層協同的規制范式:在技術層建立“范式分類”框架,針對不同技術本質設定差異化透明度義務;在場景層構建“領域理性優先”原則,允許高危領域制定行業特異性規則;在責任層采用“動態權重分配”模型,根據技術可控性、主體專業能力與損害可預見性動態調整責任比例。唯有通過多層解耦的規制架構,法律才能超越統一性迷思,在技術異質性與制度穩定性間建立韌性聯結。
(四)法律回應機制的適應性困境
人工智能技術的指數級發展對傳統法律調適機制構成系統性挑戰,暴露了法律系統在認知能力、響應速度與協調邏輯上的三重失靈。法律作為社會元治理系統的權威性,正遭遇技術理性的解構。
首先,法律解釋機制的范式危機,傳統法律解釋依賴規范性涵攝,將新事實納入既有規范框架評價。然而,人工智能從根本上動搖了法律的基本范疇:在著作權領域,生成式 AI 創作內容顛覆了“人類主體性”這一權利根基,使得原有“作者—創作行為—作品”三位一體的穩定鏈條被割裂;在侵權責任領域,自動駕駛的決策黑箱瓦解了“注意義務”的行為認定標準,傳統過錯責任以人類行為的可預見性與可歸責性為前提,而算法決策路徑無法被追溯,導致“過失”概念喪失解釋力。此危機不僅是規則適用偏差,更是認識論層面的不可通約——當技術事實已挑戰法律基本范疇時,解釋論無法通過修補既有框架實現調適,且法律修訂的制度性時滯進一步加劇了適應性困境。
其次,法律修訂的民主程序性與技術迭代的指數級速率形成結構性沖突:生成式 AI 從研發到商業化平均周期僅數月,而立法修訂需經歷提案、論證、審議、表決等程序性環節,耗時常以年計,此種速率差使法律陷入“生效即過時”的循環困局。同時,立法者為確保體系融貫性,通常基于現有技術形態構建規范框架。而 AI 技術的涌現特性使預設框架在生效時即脫離技術現實,歐盟《人工智能法》起草期間被迫緊急增補通用 AI 條款即為明證。
再次,沖突協調中的價值位階僵化亦暴露了結構性缺陷,法律應對權利沖突的傳統方法是利益衡量原則,但在 AI 引發的價值沖突中常顯不足。在數據訓練與版權保護的沖突中,法律試圖通過“合理使用”例外平衡利益,卻忽視了爬蟲技術無法識別著作權狀態、海量數據授權成本將扼殺模型訓練可行性的矛盾;在生物識別與隱私權的抵觸中,“必要限度”“公共利益”等抽象比例原則無法回應技術特異性——人臉識別在安防場景的效率優勢與在商業場景的隱私侵蝕具有不同風險權重,但法律因缺乏技術認知深度而適用同一標準,導致規制過度與不足并存。
最后,技術理性對法律系統的侵蝕已超越工具層面,直指其元治理地位。智能合約通過代碼自動執行協議條款,在區塊鏈場景中形成“代碼即法律”的自治秩序;生成式 AI 輸出的合同范本已在商事交易中實質替代法律文本;在線糾紛解決(ODR)系統依靠算法評估證據、輸出裁決,其決策邏輯不公開且不可申訴。當公眾更信賴算法的“效率”而非司法的“公正”時,法律作為最終爭議解決機制的權威性將遭到消解,法律從社會規則的制定者降格為技術理性的執行工具。
總之,技術不確定性與法律穩定性的沖突,是兩種秩序生產邏輯的對抗:技術通過持續突破“創造性破壞”的熊彼特式秩序,法律則通過規范延續構建“可預期性”的韋伯式秩序。化解沖突不在于尋求靜態平衡點,而需在認知層面實現躍遷——承認技術理性的不可完全馴服性,接受法律作為“未完成方案”的開放性,探索制度與技術在動態適配中共同進化的新范式。
二
立法的價值整合困境
人工智能統一立法遇到的重要難題在于,其企圖將安全與發展這兩種具有競爭性的異質價值目標,強行整合進單一制度框架。安全將風險控制當作元理念,遵循“預設性合規”邏輯,強調依靠剛性規則、事前審批及嚴格責任構建起確定性秩序;而發展以創新激勵作為驅動力,依照“實驗性容錯”理念,提倡采用規則留白、事后追責以及彈性空間來釋放技術的潛在可能。此兩類價值并非簡單的政策偏好分布,而是以不同的治理時間觀與制度理性為根基:安全立法追求的是“避免最壞”,發展立法意在“爭取最好”。當統一立法企圖將這兩種不可通約的價值壓縮進同一個規范文本時,不僅難以實現理論上的平衡,更在實踐中衍生出目標消解、規則沖突與制度內耗,導致立法實效的結構性偏移。
(一)價值目標的不可通約性及其規范沖突
安全與發展的內在張力,是兩種治理哲學在立法目的層面的分野。安全價值以“預防原則”為基石,將技術風險視為必須最小化乃至消除的負外部性,其規范表達依賴于禁止性清單、強制性標準及高額處罰等“命令—控制”型工具。發展價值則以“創新自由主義”為內核,將技術演進視為“創造性破壞”過程,其制度實現需依托監管沙盒、責任豁免、稅收激勵等“賦能—促進”型規則。歐盟《人工智能法》的規制哲學鮮明體現了安全優位的思路,其構建的“金字塔式”風險分級監管體系,試圖通過算法透明度、數據質量及人工監督等剛性要求預設安全邊界,卻在實質上擠壓了技術試錯與范式躍遷所必需的制度空間。
“無論是統籌安全和發展,還是為了發展暫時放松安全監管,甚至有意將風險外溢,各國的法律文本與立法議程均在很大程度上將促進人工智能發展作為重中之重。”而當安全范疇從物理損害防控(如自動駕駛安全)擴展至數據安全、倫理安全、意識形態安全乃至國家安全時,其內涵的模糊性與外延的開放性必然要求監管范圍的持續擴張與監管強度的無限提升。安全泛化迫使立法者將資源集中于構建防御性壁壘,而非培育適應性能力。我國現行規范將內容安全、算法安全、數據安全等多重目標捆綁立法,恰是安全概念過度的體現——當一部立法試圖同時承擔技術防火墻、數據主權衛士與倫理審查員等多重角色時,其規范效力必然因目標渙散而弱化,合規成本則呈幾何級數增長,最終由創新主體承擔,形成安全規制抑制發展動能的逆向激勵。
同時,安全立法遵循“底線思維”,要求使用“必須”“禁止”“應”等封閉性、強制性的規范語句,以構筑清晰的行為預期與責任邊界。發展立法則需秉持“天花板思維”,依賴“鼓勵”“支持”“可以”等開放性、授權性的規范表述,以保留技術路線的多元性與探索空間。統一立法文本若強行并置此兩類異質規范,將導致法律陷入語用學分裂與精神錯亂:既宣稱“包容審慎監管”,又規定“全流程安全審查”;既倡導“行業自律”,又設置“政府強制備案”。此種規范沖突不僅會削弱法律的行為指引功能,更可能使立法淪為政策宣示的修辭術,而非具有規范效力的制度工具。
(二)安全與發展沖突的制度實現困境
價值目標的不可通約性,在實踐中轉化為三重制度實現困境,深刻制約著統一立法的實效。
其一,規制工具的零和博弈與資源競爭。安全導向的強監管與創新導向的弱干預,在立法資源、行政注意力與合規成本分配上存在內在競爭關系。歐盟《人工智能法》對高風險系統設置了全生命周期監控義務,“高風險主要包括應用于現有歐盟產品安全法范圍的人工智能系統,以及在生物識別、關鍵基礎設施、教育和職業培訓、就業、工人管理和自營職業機會、獲得和享受基本的私人服務和公共服務及福利、執法、移民、庇護和邊境管制管理、司法和民主進程等特定領域應用人工智能系統”,其巨額合規成本實質上構成了對中小企業的制度性驅逐,抑制了市場競爭的多樣性與活力。類似地,我國對生成式 AI 內容安全的全流程管控,雖旨在降低虛假信息風險,卻在執行中迫使企業過度清洗訓練數據,導致模型認知能力退化,出現“安全合規性”與“技術先進性”悖反的局面。此現象揭示了統一立法難以兼顧兩類目標的深層缺陷:法律資源向安全領域傾斜必然壓縮發展空間,而激勵性條款的擴張又會削弱風險防控的實效性。
其二,權利配置的結構性失衡與優先權之爭。產業促進權與基本權利保障之間的沖突,是資源分配與利益享有的優先級之爭。技術創新的數據自由流動需求與個人隱私的控制要求形成尖銳對立;算法透明義務所要求的披露細節,可能與企業的商業秘密保護直接沖突;產業政策鼓勵技術集中以形成規模效應,又與反壟斷法防范市場權力濫用的目標相悖。統一立法試圖在單一文本中規定數據產權、算法知識產權與個人信息權益的邊界,實則陷入“規范互斥”的困境——正如要求同一主體既擔任運動員又擔任裁判員,必然導致權責關系的功能性紊亂。此情形在跨境數據流動場景中尤為顯著:數據主權要求本地化存儲,而技術迭代依賴全球數據協同,法律強行彌合沖突只能產生妥協性方案,無法實現任何一方的制度最優解。
其三,治理目標的時序悖論與規模悖論。安全立法與發展立法遵循截然不同的時間邏輯與規模邏輯,技術迭代遵循“摩爾定律”的指數級加速,而安全認證需遵循漸進式累積,導致“審批即過時”的循環困局:企業耗費資源通過認證時,其技術方案已落后于市場主流。統一合規標準亦忽視了企業能力差異,頭部企業可利用規模效應攤薄整改成本,而初創企業則因認證投入擠占研發資源,形成“扶持強者、淘汰新銳”的反向篩選機制,實質背離了促進產業創新的立法初衷。
(三)立法整合的嘗試及其象征性治理陷阱
為化解價值沖突,立法者常訴諸“包容審慎監管”“平衡發展與安全”等原則性表述,試圖通過抽象術語統合異質目標。而此立法策略在實踐中易陷入“象征性治理”陷阱:在價值宣言層高揚“創新發展”旗幟,承諾減少行政干預、激發市場活力;而在規則操作層卻通過準入許可、數據本地化、算法透明度等條款構筑“監管高墻”。此種表里割裂導致法律文本的價值宣示性條款因缺乏實施細則而成為政策修辭,而監管性條款則因脫離技術現實蛻變為市場壁壘。當企業發現合規成本遠高于違規收益時,“策略性違法”將成為理性選擇,最終使立法目標在實踐層面落空。
歐盟《人工智能法》的艱難立法過程及其內部條款的緊張關系,正是此種整合困境的鮮活注腳。此法一方面在序言中強調“促進歐洲人工智能創新”“提升競爭力”,另一方面在正文中構建了極其煩瑣且成本高昂的合規體系,尤其是對高風險 AI 系統的嚴格義務,被廣泛批評為“創新的枷鎖”。該法案試圖通過“金字塔結構”(禁止性風險、高風險、有限風險、最小風險)對 AI 應用進行精確分類與規制,卻忽視了通用人工智能(如大型語言模型)的“能力泛化性”使其可輕易穿透不同風險層級,導致分類系統失效,不得不臨時增補針對通用 AI 的新規則,凸顯了剛性結構應對技術動態性的無力。
(四)價值分層與差序治理的法治出路
破解安全與發展的立法整合困境,需超越“非此即彼”的二元對立思維,構建價值分層配置與差序治理的法治框架。承認法律的功能有限性,并非所有沖突都可在同一部立法、同一層級中得到完美解決。
首先,價值層級化。禁止算法歧視、防范生命健康直接風險等構成價值底線,應通過強制性規范固化為剛性約束,形成任何技術活動不得逾越的“負面清單”。此類規則聚焦于防范危害,其規范效力源于對基本權利的無條件保障。與此同時,發展目標則應轉化為激勵性政策工具,例如研發稅收抵免、公共數據開放及創新導向的政府采購,而非直接規定技術路線的實體性法律規則。此類政策本質上是制度性留白,通過降低試錯成本以釋放創新動能。
其次,規范應體現差序化構造。國家立法層面僅需設定抽象原則與程序框架,例如算法透明度的分級原則、風險動態評估的程序要求,借由此類“元規則”賦予治理系統以彈性。具體技術標準的制定權,應授予行業監管機構與標準化組織。其可基于領域知識——如醫療診斷算法的臨床驗證標準、金融風控模型的壓力測試規程——制定更具適應性的實施規則,從而形成“國家立法做減法、行業規則做加法”的差序治理格局。
最后,動態比例化。引入以技術成熟度為核心的動態評估與觸發機制,讓監管強度隨技術可行性、社會容忍度及損害可逆性動態調適。對實驗室階段的顛覆性技術適用創新豁免原則,借助監管沙盒在可控環境內觀察其演化路徑;對規模化應用的中期技術采用協同治理模式,要求企業設立倫理委員會并公開影響評估報告;對產業成熟的基座技術則施加嚴格合規義務。“我國人工智能立法需要保持靈活性,小步快跑,避免‘一刀切’立法造成難以挽回的負面影響。”推動法律從“一刀切”的靜態平衡器,轉型為貼合實踐的情境化動態調適系統。
總之,安全和發展目標的相悖情況及其制度困境,反映出工業時代法典化思維與數字時代創新生態的深層沖突。立法者需要放棄構建“萬能法典”的美夢,轉而以價值分層、規范差序和動態比例機制為途徑,在秩序與變革的長久張力中,建立一個既可以守護安全底線,又能為技術演變保留發展空間的靈活韌性治理模式。這不是放棄法治理想,而是通過制度的自我謙抑,重獲其在技術變革中的引導與規制能力。
三
立法的路徑依賴困境
當前人工智能治理呈現的結構性錯位,是傳統監管范式對于技術革命適應滯后的典型表現。其根源并非制度設計的意外差錯,而是起因于法律系統面對挑戰性創新時的認知慣性,也就是將工業時代的線性治理邏輯強制應用于數字時代的智能技術生態,造成治理工具與治理對象之間出現斷裂。當立法者試圖憑借“舊規則”適應“新環境”時,制度文本就成了路徑依賴的受累者,在技術自主性與規制強制性的對抗中逐漸失去規范活力。
(一)治理范式的不合理擴張與認知偏差
人工智能治理的定位偏差,首先源于傳統互聯網監管范式向技術治理領域的擴張。傳統互聯網治理以信息內容控制為核心,其制度設計遵循“主體—行為—責任”的線性歸責邏輯,預設了行為可追溯性與因果鏈明確性。然而,生成式人工智能的特質在于通過隱層參數自主重構問題解決路徑,其行為具有涌現性、不可溯性與非線性特征。將“內容過濾—平臺問責”機制機械地移植至算法治理領域,實際上是將技術創造本體簡化為信息傳遞載體,導致工具理性對創造理性的制度性壓制。
此范式移植催生了深層認知偏差,即混淆技術缺陷與價值偏差。生成式模型的事實性錯誤輸出等“幻覺現象”,本質是神經網絡概率建模的技術局限,而非對意義系統的蓄意推翻。如果將技術不完善性等同于意識形態風險,則要求大模型完全規避事實錯誤。這種認知混淆引發了自我指涉的監管悖論:目標層面要求算法輸出絕對“安全”卻忽視技術可行性邊界;工具層面本應投入算法可解釋性研究的資源,被迫轉向構建過度防御性內容過濾機制。其后果是技術優化被異化為價值馴化,合規性追求壓倒實質性安全進步。
更深層的制度沖突源于治理工具與技術本質的不可通約性,互聯網治理的實名認證、內容審核等核心工具,依賴對顯性行為的追溯控制,而生成式 AI 的創造性源于隱空間中的參數演化,其決策過程無法映射為可監管的行為序列。傳統禁止特定關鍵詞等“開關式”禁令,在算法創作中已然失效——當模型通過數十億參數重構語義關聯時,簡單的輸入輸出管控難以阻斷非預期的價值表達。這種錯位在技術哲學層面體現為還原論與整體論的沖突:監管者試圖將技術系統拆解為可量化部件施加管控,卻忽視模型整體涌現能力遠大于部分之和。
范式錯位進一步引發了治理資源的巨量耗散與創新路徑的窄化,企業研發預算被迫從算法攻關轉向合規性過濾系統開發;嚴苛的內容安全審查迫使技術路線選擇趨同,規避倫理思辨、社會批判等具有文化建構潛力的創意領域,導致技術進化的達爾文主義被制度性修剪。破解此困境,需建立技術認知的雙重分離原則:分離技術缺陷與價值風險,將算法幻覺等歸入技術優化范疇;分離創造過程與輸出管控,對模型研發適用“創新豁免”,僅對具體應用場景輸出實施動態監管。監管者應從“技術警察”轉型為“創新助產士”,構建監管沙盒等安全測試環境,“人工智能監管沙盒為人工智能系統提供者和主管機關等提供具體可控的環境,為測試創新性人工智能系統的性能、安全性以及潛在影響等提供現實可能”,使技術風險在受控空間中自然暴露并定向修復。
(二)全流程監管的自我消解悖論與“制度父愛主義”
人工智能治理中的全流程監管樣式,試圖采用覆蓋從研發到應用全鏈條的管控手段規避風險,卻因忽視技術演進的內在規律而陷入制度性自我消解狀態。“全流程視域下,人工智能風險可類型化為算法設計風險、數據要素風險、平臺控制風險、網絡安全風險、自動決策風險等具體樣態。”監管者試圖借助確定性框架約束不確定性技術,反而弱化了技術自我優化的動態能力,且導致社會系統的適應性調節機制瓦解。
訓練數據監管首先暴露了認知謬誤。現行框架要求對訓練語料做前置純凈度篩查,設定合法閾值作為數據準入標準。此量化管控誤解了機器學習的規律:一方面,數據復雜性與模型進化存在辯證關系——模型能力進化依賴數據規模與多樣性,而深度學習具有“對抗噪聲數據”的固有特性,通過海量樣本中的統計噪聲訓練反而提升模型魯棒性。將數據偏差等同于價值污染,無異于要求疫苗在無菌真空中培育,既違背了免疫系統生成機制,更剝奪了技術應對現實復雜性的進化潛能。另一方面,“純凈性預設”本身是技術虛妄,監管者假定存在絕對“安全”的數據邊界,卻忽視數據價值的語境依賴性。機械地過濾將導致模型認知能力的歷史虛無化,使技術淪為脫離現實語境的溫室產物。
全流程管控更深層的危害在于瓦解技術自凈的社會學習循環,傳統技術治理依賴“問題暴露—制度回應”的修正機制,而生成式人工智能的容錯率需在具體應用場景中被動態校準。這體現為以下兩個層面。一方面,場景化容錯閾值的不可通約性——醫療診斷容錯閾值顯著低于創意寫作,法律文書生成的準確性要求遠高于娛樂對話。統一監管標準強行鎖死技術容錯空間,剝奪了市場選擇與社會評價的調節功能。當監管者代替用戶定義風險承受度時,技術迭代便失去了關鍵反饋信號。另一方面,試錯空間的壓縮效應——技術進化依賴“創造性破壞”過程,即有缺陷的初級應用觸發用戶反饋、倫理爭議與市場淘汰,推動技術定向優化。全流程管控以事前審批替代事后追責,使技術缺陷在監管真空密封下隱性積累,最終以系統性危機形式爆發。
此范式隱含三重“制度父愛主義”的危險預設:其一,知識論謬誤,假定監管者比開發者更懂創新邊界,而算法黑箱的存在使技術內生風險具有不可解釋性,即便設計者也無法完全預判系統行為;其二,價值位階壟斷,預設監管者比用戶更懂風險承受度,但公眾對自動駕駛的容錯率隨技術普及逐步提升,而統一安全標準可能剝奪弱勢群體的技術普惠權;其三,進化理性否定,忽視社會系統的自適應智慧——技術倫理規范本應在多元主體博弈中涌現,例如開源社區通過爭議達成算法公平性共識等,但全流程監管將動態協商壓縮為行政指令,導致規范與實踐持續脫節。
破解全流程監管困境,需實現三重轉向:從數據管控到能力培育,將監管重點從輸入數據純凈度轉向模型抗干擾能力驗證,通過注入對抗樣本測試培育技術在復雜環境中的生存力;從全程介入到節點放行,在訓練階段保留數據多樣性,在應用層按領域風險分級實施差異化監管;從行政主導到多元共治,建立“監管沙盒—行業標準—用戶評級”的協同體系,使規范演進與技術進化同步共振。
(三)政策試驗空間的系統性壓縮與制度收斂效應
人工智能治理的主要矛盾表現為技術演進的不確定特性與制度建構的穩定特性之間的張力,過早推動人工智能統一立法,會擠占本應借助區域性、行業性試驗持續優化的政策學習空間,致使治理體系失去應對技術突變的應變韌性。
地方立法和行業規約構建起技術治理不可缺少的制度緩沖帶,“我國首部人工智能產業專項立法《深圳經濟特區人工智能產業促進條例》為這一新興領域的國家及區域性立法工作提供了探索經驗和有益參考”。《深圳經濟特區人工智能產業促進條例》將準入禁令替換成“創新容忍度”,允許企業在風險可控的情形下探索算法應用邊界;“以上海自貿區為試點探索建立中國式‘監管沙盒’,形成分業監管框架下的‘雙峰’監管模式”,上海自貿區通過監管沙盒建立起動態算法審計標準,構建風險分級和監管強度的彈性耦合機制。這些區域性試驗的本質是治理范式的試錯探索——利用小范圍、高頻率的政策更替,積累技術風險與社會接受度相契合的經驗,其價值不只是提供具體的規則樣本,更在于揭示技術社會化進程中不可預見的沖突節點。
統一立法隱含的制度收斂風險,進一步表現為規則彈性喪失與創新可能性抑制。立法試圖固化技術定義與風險圖譜,卻忽視了技術路線的分岔演進,使法律陷入持續修訂的惡性循環,反證技術不確定性無法通過概念窮盡來消解。強行落實統一標準就像給技術演進修了條單行道——當自動駕駛算法被迫去符合全國性安全閾值時,特定場景的創新性嘗試(如沙漠礦區無人駕駛)也許會因不滿足通用準則而夭折。從技術史來看,極具顛覆性的創新往往誕生于現有規則的邊緣區域,而過度突出“合法性”將引發技術路線的趨同化。
技術治理應依照時空相對性原理,法律穩定性的實現依靠制度彈性的留存。經典物理學式的治理思維策略——試圖借助精確界定技術定義、責任范圍以及風險等級來構建確定性的秩序——在量子化的技術現實中注定會失效。恰似海森堡測不準原理所顯示的:精確地測量粒子位置肯定會引起其動能的失控,監管者過分追求技術定位的“精準狀態”,實際上弱化了技術動態演化的可能性空間。技術的社會化進程本質上是時空耦合的產物,北京中關村的算法倫理爭議與深圳前海的同類問題可能因地域文化差異呈現迥異的解決路徑,而統一立法強行剝離了技術的地方性語境。
破解政策試驗空間壓縮困境,需構建分層化授權框架:在縱向維度上,國家立法僅需設定禁止算法歧視等價值底線,將具體標準制定權授予省級人大,借鑒德國“實驗性條款”機制,允許地方政府在腦機接口等重大技術領域設立臨時性特別法;在橫向維度上,建立“監管沙盒聯邦制”,由國家網信辦統籌區域沙盒數據互認,允許測試結果跨區通行,避免重復審批;在動態維度上,立法引入“日落條款”,強制要求高風險規則定期接受技術可行性評估,使法律從靜態文本轉型為“活的制度有機體”。
(四)控制論范式的認知局限與生態論轉向的困境
人工智能治理的路徑依賴困境,根源在于控制論范式的哲學局限——將技術視為可精準調控的機械系統,試圖通過“輸入—輸出”的線性監管函數實現確定性秩序。此范式忽視了一個根本現實:人工智能是技術、制度與社會互構的復雜適應系統,其演進具有涌現性、非線性與自組織特征。法律規則若僅充當技術有機體的“機械枷鎖”,必將引發制度與技術進化脫節的系統性風險。破解之道在于轉向生態論治理觀,“生態理性是人與自然和諧共生的生態智慧及人類集體性自覺”。將法律定位為滋養創新生態的“氣候系統”:既提供基礎制度光照(價值底線)與降水(資源支持),更包容必要的技術雷暴(試錯風險)與枯榮周期(迭代成本)。
首先,該范式躍遷要求從本質主義到關系主義的認知轉向。傳統治理陷入“定義先行”的窠臼,執著于追問算法是否具備法律主體資格等形而上學問題,卻遮蔽了技術社會化進程中的關系建構本質。生態論范式要求立法者實現:技術定位轉向——放棄對技術本質的追問,聚焦“技術—社會”耦合關系的具體建構,例如自動駕駛責任分配不應取決于算法是否被定義為“駕駛員”,而應基于人機協同中的控制權重分布與風險收益比;監管邏輯轉向——以“關系契約”替代“行為禁令”,例如深度合成技術治理重點不是禁止“換臉”,而是構建技術使用方與被影響方的權利義務對等框架,“提高公眾對 AI 生成內容的辨識能力,增強對標識重要性的認識”。
其次,需從預防哲學到韌性哲學的范式升華。控制論范式的絕對安全幻想導致制度陷入過度防御陷阱,生態論主張以系統韌性替代預防主義,這要求:風險認知重構——承認技術缺陷無法完全消除,轉而培育社會系統的適應性免疫力,例如針對深度偽造,與其強求平臺100%攔截虛假信息,不如構建“辨偽—響應—修復”的三級韌性體系;容錯機制設計——建立負反饋調節回路,例如在醫療 AI 領域,通過“非事故性損害豁免”制度允許一定范圍內的診斷偏差,但要求將偏差案例轉化為算法訓練數據。
最后,需實現從立法中心主義到治理生態學的體系跨越。統一立法試圖以法律文本壟斷規則供給,割裂了治理生態的有機聯系。生態論視野下,法律僅是治理生態的一個“物種”,需與行業標準、技術倫理、市場選擇形成共生網絡:規則群落建構——在醫療 AI 領域,法律退守為元規則制定者,而將具體標準交由醫師協會、藥監部門和醫院倫理委員會動態制定,形成交叉反饋的“規則生命體”;能量交換機制——建立制度代謝通道,例如,英國監管沙盒將企業試錯數據轉化為規則優化素材,使行業實踐與監管標準形成養分循環。
總之,從控制論向生態論的轉型,是治理理性的范式變革。當立法者摒棄追求精密控制的“工程師思維”,轉而習得培育生態平衡的“園丁智慧”時,才能真正實現技術安全與制度彈性的辯證統一。這種認知躍遷要求法律以“謙抑性”為根基——在時間維度為技術演進保留試錯緩沖區,在空間維度為多元規則留出共生界面,最終在秩序與變革的永恒張力中,孕育出具有進化生命力的治理生態。
四
立法的域外實踐鏡鑒
全球人工智能治理的多元探索實踐,為評判統一立法模式的有效性提供了天然的檢驗空間。不同規制范式的分野,不僅體現了地緣政治和產業戰略的區別,更揭示出制度哲學上的重大選擇。歐盟以《人工智能法》為標志的“秩序本位主義”、美國聯邦層面立法克制的“實驗探索方式”以及東亞嘗試結合安全與發展的“整合主義舉措”,組成了一幅檢驗激進立法代價的圖景。域外經驗顯示,中國人工智能立法的智慧,并非參與此類“立法競賽”,而在于從這些實踐得失中汲取教訓,探索一條符合技術演進規律和中國式現代化需求的漸進之路。
(一)歐盟范式:法典化雄心與創新現實的沖突
歐盟《人工智能法》是全球首個嘗試對人工智能進行全面且統一監管的立法探索,其主要特征為構建起一個基于風險分級的金字塔式監管體系。該法案把人工智能應用劃分成“禁止性風險”“高風險”“有限風險”和“最小風險”四個類別,并實施逐次遞減的監管要求。此種“秩序本位主義”范式,體現了歐盟借助“布魯塞爾效應”輸出其數字規則霸權的戰略考量,也就是通過確立嚴格的區域標準,影響全球市場規則走向,憑借制度優勢彌補其在技術創新領域的相對滯后局面,而這種法典化的宏大敘事和人工智能技術的動態本質出現了尖銳矛盾。
首先,靜態的分類框架無法適配技術的涌現態勢與通用化趨勢。法案起草的時候主要針對專用型、功能特定的人工智能系統,但生成式人工智能的迅猛發展,尤其是大模型展現的通用能力,使其能夠輕松穿過預設的風險層級。而“通用模型帶來了深刻的‘范式變革’,‘預訓練+微調’成為人工智能發展的新范式,這引發了真正的通用性革命”。例如,一個原本為對話設計的通用模型,能被運用到醫療咨詢或金融分析中,從而迅速從“有限風險”進入“高風險”范疇,造成監管分類體系失靈。這使得歐盟在立法進程臨近結束時才匆忙增補針對通用人工智能的專門規則,反映出統一立法在面對技術范式躍遷時的結構性僵化。
其次,苛刻的合規要求實際上抑制了創新活力的釋放,尤其對于中小企業構成了制度性壁壘。法案對“高風險”系統實施了全生命周期的監管義務,包含嚴格的數據把控、細致的技術文檔記錄、突出的風險評估及人類監督要求。這些義務引發的巨額合規費用,迫使企業把大量研發資源從技術攻關調整到滿足監管需求,造成了“合規比創新優先”的扭曲激勵狀況。尤其針對初創企業和中小規模企業而言,這些成本很難承受,排擠了其在歐盟市場的生存余地,造成了創新生態多樣性的干涸。
最后,法典的剛性造成了“一生效就滯后”的悖論。立法程序歷時逾三年的漫長審議周期,與人工智能技術的指數級迭代速度形成巨大落差。當法案最終生效時,其所依據的技術現實可能已被顛覆,其條款可能已成為制約新一代技術應用的限制。“《人工智能法案》立足于現有歐洲法律價值體系,無法妥當回應科林格里奇悖論式的挑戰,因為其忽視了人工智能技術可能引發的深遠社會變遷和人類價值重構。”這種剛性體系缺乏內置的適應性機制,難以應對技術“創造性破壞”帶來的持續挑戰。
歐盟的實踐已然表明,試圖借一部宏大明晰的法典文本畢其功于一役地化解人工智能治理難題,是“立法全能主義”的認知迷思。其直接引致的代價是,創新動能的抑制、產業競爭力的相對弱化,以及監管體系與技術現實漸趨脫節的潛在風險。
(二)美國路徑:實驗主義治理與規則市場的利弊
與歐盟構成鮮明對比的是,美國在聯邦范疇實施了立法克制的“實驗主義”途徑。其未推出覆蓋全國的人工智能法案,而是利用現有的法律權威(如《國防生產法》),在基礎模型安全測試等關鍵領域規定底線要求,同時許可各州依照自身情形開展立法探索,形成了以“聯邦底線+州級實驗”為特征的分散化治理格局。
美國路徑的優勢體現為其制度的靈活性與對創新空間的保留,諸如加州、科羅拉多州、猶他州等各州,實施了不同側重點的法規。例如,“加利福尼亞州作為位于技術創新前沿的關鍵州,于2024年通過了17項與人工智能相關的法律,涵蓋深度偽造治理、訓練數據透明、醫療場景中的人工智能提示義務以及生成內容的可識別性標識等關鍵議題”。這種“規則市場”許可政策創新在地方層面先去試驗,其他州或聯邦層面可吸收成功的經驗做法,失敗的教訓被圈定在局部范圍,避免了因“一刀切”而產生的系統性風險。
但是,該實驗主義路徑也面臨著規則碎片化和司法管轄沖突的挑戰。企業若于美國市場開展運營,可能要同時恪守數十個州各不相同,甚至相互沖突的人工智能法規,這引發了極大的合法復雜情形和不確定性。這種“胡亂拼湊”式的監管環境,雖然避免了因過度監管引發的抑制風險,但也存在增加交易成本,并可能會產生“競相逐底”的問題,也就是部分州為吸引企業投資,過度降低了監管的門檻。同時,在聯邦層面強有力的公民權利保護框架缺失的情形下,分散的各州法律也許不足以應對人工智能帶來的大規模算法歧視或者隱私侵害等全國性、系統性風險。
美國的經驗說明,漸進式、分散化治理模式在保障技術創新靈活性與適應性方面優勢明顯,但其取得成功的關鍵在于能否構建有效的機制,促進各州之間的協調及合作,在基本權利和安全底線上獲得充分保障,以此在包容審慎和風險防控之間取得平衡。
(三)東亞困境:目標整合的嘗試與制度性內耗
以韓國《人工智能基本法》為代表的東亞相關模式,嘗試在單一法律框架內同時實現推動產業發展與防控風險的雙重目標,即選擇一條既重安全又重發展的“整合主義”道路。 “韓國《人工智能基本法》以‘發展與規制并重’為核心邏輯,既要抓住技術紅利推動產業升級,又要通過法律框架防范風險、保障民生,同時在國際競爭中確立規則話語權,從而構建安全、可信、包容的人工智能社會。”這種立法嘗試反映出后發技術國家期待在保障安全的同時搶占產業發展制高點的急切心理。
而這種硬性將不同價值目標耦合的嘗試,在實踐中往往引起立法精神的內部分裂與制度性內耗。產業促進條款倡導降低制度成本支出、簡化程序環節、提供財稅激勵辦法,以促進技術換代和市場應用拓展;而風險防控條款又引入安全評估、合規審查、準入許可等造成成本增加以及時間延長的程序。這兩種邏輯于立法文本中并存,造成法規的執行者在實踐中面臨兩難局面:過分看重安全會扼殺創新的動力,而過度偏向發展可能會造成風險監管被架空。其可能導致的結果是:促進條款會因為缺少可操作的實施細則,進而淪為政策宣示;而監管條款也會因與產業實際情況脫節,進而變成創新的阻礙。
更實質的問題是,該模式容易催生“認證文化”和責任悖論。強制性質的安全認證與評估程序,可能會誘導企業把資源匯集于獲得一張合規證明上,而不是去進行實在的安全能力建設。認證證書在實踐中可能被異化成責任豁免的“庇護符”,反倒掩蓋了實際風險的慢慢積累。統一標準往往忽視了大企業和中小企業之間的能力差別,造成后者在競爭中處于更不利的位置,實際上造就了“扶持強者、淘汰新銳”的反向篩選機制,違反了推動產業整體進步的初衷。
東亞困境揭示出,在技術自身及其社會影響還存在巨大不確定性的時期,試圖憑借一部法律去完美平衡所有存在沖突的價值和目標,是一種脫離實際的空想。這種“既要實現……又要達成……”的立法模式,經常造成規則體系內在矛盾和實際效能的相互抵消。
(四)比較視野下的治理哲學反思與中國選擇
“發展中國家和發達國家的 AI 治理模式差異根源在于 AI 行業的壟斷性和 AI 技術發展的階段性,以及二者面臨的主要發展問題的差異性。以中國為代表的重點安全風險治理模式是發達國家和發展中國家 AI 治理的中間模式。”域外人工智能治理實踐顯露的規制困境,從不同維度印證了激進統一立法的潛在代價。其共同教訓在于未能正視技術不確定性的本質屬性,僅憑工業時代成型的、自上而下且執著于確定性的法典化模式,去規制數字時代的顛覆性技術,這正是導致治理實效折損的根源所在。
第一,要擺脫“立法萬能”以及“畢其功于一役”的思維局限。人工智能立法勿追求形式完備及體系的宏大,而要彰顯制度在韌性、適應性及學習能力上的特質,立法應看成是開放、未完成的進程,并非封閉的終極產物。
第二,宜采用“漸進式”以及“場景化”治理思路。立法重心需從制定“人工智能基本法”,轉向采用“核心原則立法+領域具體規則”的分層策略,國家先劃定安全、倫理等價值底線,把眾多具體的技術標準、行業規范交由監管機構、行業組織在實踐中動態優化。
第三,須使“監管沙盒”等實驗性治理工具充分發揮效能。開展特定領域、一定范圍的政策試點,準予在可控環境中打破現有的法規界限,為規則創新提供可靠的測試數據,實行“干中學習”,讓立法決策建立在實證基礎之上,而不是純粹的理論推演。
總之,“統一立法宜緩行”論點依靠域外經驗獲得了有力支撐,“盡管對于人工智能立法的討論極為熱烈,但絕大多數國家‘口惠而實不至’,并未在國家層面落實立法進程”,“人工智能綜合性統一立法仍是‘顯著例外’”。中國應防止采用激進的立法舉措,通過對技術規律和治理哲學的把握,選用更具耐心、充滿彈性、可喚起各方智慧的漸進式治理道路,堅守安全的最低界限,為人工智能的發展創新保留制度上的空間。
五
立法范式的重構
人工智能統一立法在本體論、目標論、方法論及實踐論范疇均面臨無法逾越的障礙。應對困境的辦法,不是放棄規則構建,而是針對立法范式本身開展重構,也就是從追求形式統一和靜態穩定的“法典化迷局”,轉向培育具有動態適應和韌性發展的“治理生態學”。
(一)時間維度:建立法律與技術的共時性演進機制
針對“技術動態與法律靜態”的矛盾,漸進式治理范式首先需在時間維度上重新構建法律和技術的關系,從“滯后追隨”變為“同步演進”,創立一套可使法律規則隨技術成熟度動態合理適配的觸發與迭代機制,使制度具有類似有機體那樣的學習和進化本領。
1.技術成熟度驅動的立法觸發機制。法律介入的時機應由技術社會化的內在邏輯而非政治議程決定,應組建跨學科的技術評估機構,負責監測算力密度、社會滲透率、風險顯性化等關鍵指標的工作。當技術從實驗室原型邁向規模化應用階段,其風險圖譜和社會價值負載初步顯露時,才可開啟專項立法相關程序。例如,制定自動駕駛專項責任規則,不宜在概念驗證階段開展,而應在真實路測數據顯示其事故率穩定低于人類駕駛員臨界值時制定。這使立法成為技術社會化的“適應性框架”而不是提前限制,既防止過早調控扼殺創新的機會,又防止監管缺失造成系統性風險的累積。
2.監管沙盒的時空緩沖與壓力測試功能。在技術混沌期與制度成熟期之間,可以設立風險可控的“政策實驗區”。監管沙盒通過限定應用場景(如醫療影像診斷)、封閉測試場域(如城市特定路段)、控制用戶規模,構建一個“壓力測試容器”。其法律價值在于以下兩點。一是提供責任豁免的安全港,“我國人工智能監管沙盒存在著維護安全有余而支持創新不足的現狀,尤其表現為法律責任豁免制度的闕如”。企業在遵守預設安全計劃的前提下,對沙盒內測試產生的特定風險享有責任豁免或限制,從而敢于探索前沿領域。二是形成數據驅動的規則生成器,監管者通過動態監測,觀察算法與人類行為的互動,記錄風險涌現的節點(如算法偏見閾值),為正式立法儲備實證基礎,使規則制定從理論推演轉向證據為本。
3.反身性法律迭代程式與日落條款。應當突破法律永恒性的迷思,構建規范的生命周期管理系統。引入反身性修訂機制,要求每條重要規則都附帶其制定時的“技術前提說明”(如“本條款基于監督學習范式”),當現實技術參數(如出現強大的無監督學習模型)超越預設閾值時,自動啟動法定修訂程序。同時,強制推行日落條款,要求高風險領域的規則(如深度合成內容披露標準)在生效后3—5年自動失效,除非經過重新評估確有必要延續。這倒逼立法主體定期根據技術代際更迭重新審視制度效能,使法律從靜態文本轉變為“活的、可演進的規范有機體”。
上述三重時間機制共同指向法律時間觀的范式轉型:從線性到相對性,從滯后到并行,從封閉到開放,使法律體系能夠與技術突破保持同步演進。
(二)空間維度:構建分層協同的差序治理體系
針對技術異質性、領域差異性以及安全與發展的價值沖突,漸進式治理范式在空間維度上拒絕“一刀切”,轉而構建一種分層化、差序化的治理架構。該體系遵循“元治理—領域治理—組織治理”的邏輯,在不同層級分配不同的規制任務與理性標準。
1.價值基底的錨定與底線劃定。國家頂層立法應跳出具體行為規制的范疇,恪守“元規則制定者”的角色定位。其核心職能在于錨定不可妥協的價值底線,確立全社會一體遵循的“負面清單”,例如明令禁止開發應用社會評分系統、禁止利用人工智能實施意識操控、嚴禁危及生命安全的算法歧視等。此類構成性規則應力求少而精,通過強制性規范固化為剛性約束,為整體治理生態劃定不可逾越的紅線。在此紅線之外,國家立法當保持最大限度的謙抑,依托研發稅收抵免、公共數據開放等倡導性規范與政策工具引導發展方向,而非以法律條文直接框定技術路線。
2.授權行業與場景制定特異性規則。承認醫療、金融、交通、教育等不同領域在面對 AI 時有著不可通約的倫理密度、風險強度與規制需求。國家立法應授權醫療監管機構、金融監管部門等,基于其專業知識和領域特性,制定本行業的 AI 應用具體指南和標準。例如,由衛健部門牽頭制定“醫療診斷 AI 臨床驗證標準”,由金融監管部門制定“算法交易風險壓力測試規程”。這種“領域理性優先”原則,確保了規制深度嵌入技術應用機理,實現“國家立法做減法,行業規則做加法”,既避免了統一立法的結構性錯配,又發揮了行業監管的專業優勢。
3.組織倫理內生。有效的治理最終要落腳到組織行為上,應通過制度設計,推動企業將倫理與安全要求內化為研發和運營的“免疫系統”。“作為應對方案,‘人在回路中’( HITL)策略被提出,它將人類判斷與人工智能技術相結合,以減少偏見并保證個性化的法律結果。”具體來說:一方面,要求達到一定規模或從事高風險 AI 研發的企業設立實質性的倫理審查委員會,賦予其對重大算法迭代的暫停權,并要求其發布年度 AI 倫理影響報告;另一方面,探索建立算法影響評估的強制制度,要求企業在部署可能對個人或社會產生重大影響的 AI 系統前,進行系統性評估并采取緩解措施。這使外部監管壓力轉化為組織內部的合規動力和倫理自覺,形成持續改進的微觀基礎。
這種分層治理體系形成了功能互補、權責清晰的差序格局,有效地化解了價值沖突,并尊重了技術在不同場景下的異質性邏輯。
(三)工具創新:實現軟硬法協同的多元規范供給
為破解路徑依賴與監管僵化,漸進式治理范式必須超越對“國家強制力”的單一依賴,構建一個軟硬法相互協同、多元規范共生的治理工具箱。
1.技術標準的參數化與動態調適。“硬法”因其修訂程序冗長,難以跟上技術迭代。而技術標準具有靈活、專業、可量化的優勢,可作為硬法的重要補充。應大力推進人工智能可解釋性標準、數據安全標準、算法公平性標準等國家與行業標準的制定。這些標準能將“公平”“可控”等抽象法律原則轉化為機器可讀、可測量的技術參數(如群體公平性差異閾值),使倫理要求成為技術架構的初始設定。更重要的是,標準可以通過版本升級等快速修訂來響應新技術風險(如針對生成式 AI 的“幻覺”指標),實現規范與技術的近乎同步進化。
2.司法裁判的個案探索與規則形成功能。在立法留白或規范模糊之處,司法系統應發揮個案裁判的獨特優勢,依托案例的累積效應,為人工智能治理供給“實踐型法律規則”。法院審理人工智能侵權、算法歧視、生成內容著作權等新型案件時,需著力提煉算法透明度、人類控制權重、損害可預見性等核心要素,搭建動態化責任評估框架。此類司法實踐推動的規則細化與原則明晰,能夠為后續立法提供寶貴的經驗素材與規則雛形,進而形成“司法探索—經驗凝聚—立法優化”的良性循環。
3.倫理共識與行業自律的柔性規制力量。“軟法”雖欠缺強制約束力,卻可借由市場聲譽、行業準入、社會評價等多元機制,發揮強有力的引導作用。“為了更好地實現軟法功能,必須從立法上對軟法體系進行整合,界定軟法的概念、將軟法作為法律淵源、以軟法補充公法體系、將軟法作為治理規則、將軟法作為追責依據。”應大力推動行業組織制定人工智能倫理公約,鼓勵企業發布負責人工智能發展承諾,組建行業自律組織開展資質認證與同行評議。當“以人為本、智能向善”的理念從法律條文逐步轉化為行業共識、企業文化與工程師職業操守時,其治理成本最低且效果最為持久。這種植根于共識的柔性規制,與硬法的剛性底線形成互補,共同塑造了健康有序的人工智能創新生態。
軟硬法的協同共治,在于打造富有韌性的規范生態體系。硬法劃定不可逾越的治理紅線,軟法提供靈活調適的制度空間;司法裁判探索前沿爭議的解決路徑,技術標準推動治理規則的落地實施;倫理共識塑造市場主體的行為習慣,最終會顯著降低制度運行的整體成本。
總之,漸進式治理范式并不是現有立法模式的小修小補,而是一場深刻的范式變革。它以謙抑性為根基,在時間上為技術演進保留試錯緩沖區,在空間上為多元規則留出共生界面,在規范上為軟硬法協同構建耦合機制;它旨在汲取歐盟激進立法的僵化教訓與規避美國分散治理的碎片化風險,探索一條兼具原則性與靈活性、秩序與活力的“中國式中間道路”。最終,法治的智慧不在于編纂看似完美的最終法典,而在于培育一個能夠容納不確定性,并在動態平衡中持續進化的治理生態系統,從而在技術革命的驚濤駭浪中,為人類尊嚴與價值守護提供最堅韌的制度之錨。
六
結語
人工智能的立法抉擇,本質上是法治文明面對技術革命時的一場哲學自覺。筆者通過剖析技術不確定性與法律穩定性的本體沖突、安全與發展價值的目標悖論、控制論范式的路徑陷阱以及域外激進立法的實踐代價,證成了統一立法在當前歷史條件下宜緩行的基本立場。技術的顛覆性、價值的不可通約性、治理的復雜性共同決定了,試圖以一部宏大法典鎖定未來圖景,不僅是理性的僭越,更將付出抑制創新與固化風險的巨大代價。
中國人工智能立法的真正智慧在于,保持戰略耐心與制度謙抑,“遵循‘急用先行、逐步完善’兩步走的思路”,從“立法中心主義”轉向“治理生態學”。我們主張的漸進式治理范式,并非消極規避,而是更具前瞻性與韌性的法治進取:以時間維度上的動態適配機制接納技術演進,以空間維度上的差序治理結構回應領域理性,以工具維度上的軟硬法協同激發多元共治。這條道路要求立法者摒棄“總工程師”的幻象,轉而扮演“生態園丁”的角色——培育土壤而非設計花朵,設定底線而非繪制藍圖。
唯有如此,方能在不確定性中守護確定性,在技術風暴中錨定人的價值。法治的尊嚴,從不在于法典的厚重,而在于制度為未來保留的包容性與生命力。這或許是中國為全球人工智能治理提供的最具啟示性的智慧:在謙抑中孕育力量,在漸進中抵達深遠。
-向上滑動,查看完整目錄-
《河南財經政法大學學報》2026年第2期目錄
【法治中國】
1.論人工智能統一立法應緩行
——漸進式治理范式的構建
房保國
2.低空經濟發展視域下無人駕駛航空標準規制的法治重塑
鄒新凱
3.“健康中國”的法理內涵及實現路徑
田蒙蒙
【數字法學】
4.數據占有行為的刑法規制限度
龔珊珊
5.個人信息自決權的權能拓展
——以大型平臺企業為視角
孫銘
【部門法學】
6.相對貧困背景下社會救助工作福利適用契約規則的反思與完善
王健
7.論行政公益訴訟第三人的規則建構
——以國有建設用地使用權人作為閑置土地公益訴訟第三人為例
李松杰
8.人工智能致害犯罪中刑法因果關系的范式嬗變與歸責邊界
朱亮宇
9.“企業—國家”協同型民營企業內部腐敗犯罪治理模式之提倡
李智偉
【紀檢監察專欄】
10.紀檢監察監督與檢察監督關系論綱
劉用軍
《河南財經政法大學學報》是由河南財經政法大學主辦的法學類專業學術期刊。1986年創刊,2012年由原《河南省政法管理干部學院學報》更名為《河南財經政法大學學報》。本刊秉承“格物致知、明禮弘法”的辦刊理念,堅持辦刊的學術性,追求學術創新,嚴守學術規范,關注法學理論和實踐中的前沿問題、熱點、難點問題及其背后的深層次法理研究,注重制度建設;包容不同學術觀點和學術思想。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 郭晴晴
審核人員 | 張文碩 韓爽
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.