<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      徐舒浩 | 告別“缺陷”:人工智能致損無過錯責任的法理根據 | 政治與法律202602

      0
      分享至

      【作者】徐舒浩(上海交通大學凱原法學院助理教授、法學博士,北大法律信息網簽約作者)

      【來源】北大法寶法學期刊庫《政治與法律》2026年第2期(文末附本期期刊目錄)。因篇幅較長,已略去原文注釋。

      內容提要:在自動駕駛語境中,人工智能軟件產品缺陷是指預測模型和決策函數在事故基礎率、預測誤差率、假陰性率上沒有達到合理的安全標準。但晚近的計算機科學研究已經表明,低事故基礎率、低預測誤差率以及低假陰性率的“三低”狀態不具有理論上的可能性,處理其中兩項“缺陷”的過程,必然伴隨著放大剩下一項“缺陷”。為了保證人工智能的安全性,有理由放棄假陰性率這一指標,如此便會導致“缺陷”這一概念在人工智能致損責任分配問題上式微。而一旦告別“缺陷”,純粹因自動化決策而產生的損害賠償責任就應當采納二層次判斷方案。第一層次是“無過錯責任”,即只要能夠證明損害發生時處于自動化決策狀態,就由人工智能軟件提供者承擔損害賠償責任;第二層次是“安全性證明+風險基金補償”,即被告通過統計型證據舉證證明軟件的事故基礎率和預測誤差率符合市場準入門檻時,由行業組織設立的風險基金承擔替代責任。

      關鍵詞:自動駕駛;人工智能;統計型證據;設計缺陷;無過錯責任

      目次 一、問題的提出 二、自動駕駛人工智能產品“缺陷”問題的理論與立法 三、人工智能產品“缺陷”的三種概念 四、人工智能產品“缺陷”的理論困境 五、告別“缺陷”后的無過錯責任方案 六、結語

      問題的提出

      關于人工智能侵權致損時,人工智能產品(軟件)提供者的民事責任承擔問題,存在著過錯責任與無過錯責任的爭議。其中,支持無過錯責任有兩種論證思路。第一種是產品責任思路。如歐盟2024年12月修訂實施的《關于缺陷產品責任與召回責任的理事會指令》即“歐盟2024/2853指令”將人工智能軟件歸入產品,并對其適用無過錯責任。國內也有學者指出“法律應對人工智能所構成的終端產品施加產品責任或嚴格責任”。第二種是非產品責任思路,主要從幾個方面展開:第一,人工智能具有不可控、不可預測的致害危險性,這種過高的損害風險“超出了與風險程度大致相當的安全保護”,從公平角度出發,不應考慮過錯要件,而應為被侵權人提供更充分保護;第二,無過錯責任可督促人工智能軟件產品提供者致力于提供更安全的產品或服務;第三,在人工智能風險不可控的情況下,無過錯責任可以將剩余事故成本全部內在化,提升社會總體福利,因此是一種“有效率”的責任分擔方式,同時亦不會過多地抑制企業創新。

      盡管繞開產品責任后,人們有諸多理由支持人工智能致損的無過錯責任,但從產品責任的內部視角看,能否得出無過錯責任的結論,仍存在爭議。過錯責任的支持者在最近指出,產品責任主要通過訴諸產品之缺陷來證成生產者之責任,但“缺陷”證明實乃過錯證明。進一步說,缺陷判斷主要依賴兩項標準:第一,產品安全性是否符合消費者合理期待;第二,產品提供者為預防事故所付出的成本是否低于事故發生所可能造成的損害。不滿足消費者合理期待的安全程度,或者采取預防措施的成本較低而未能付諸實施,即被認定為未盡到注意義務,構成缺陷,而此處的缺陷從根本上說就是過錯的同義詞。因此,產品責任“實質上是過錯責任的輕微修改版本”。

      已有學者主張,考慮到人工智能技術內在不可控,人工智能致害的獨特危險可能超出產品缺陷的輻射范圍,對于超出部分,不宜適用產品缺陷的責任邏輯,而應徑直引入無過錯責任。這樣一來,即便考慮了產品責任的可能性,無過錯責任也必然有其一席之地。但值得注意的是,尚無學者提出充分論據來證明,人工智能內在不可控這一事實,究竟如何讓其超越產品缺陷的范疇,更直截了當地說,為什么人工智能的決策不能被簡單地界定為有缺陷或者無缺陷。這一缺憾為本文的寫作提供了必要性。

      對人工智能預測方式的理解將使我們認識到,模型決策中歸責問題最獨特的地方在于,只有允許模型在特定情況下犯錯,它才可能避免在其他多得多的情況下犯錯,換言之,只有在某種程度上容忍模型在微觀世界的誤差,才能期待它在宏觀世界提高安全性。由此一來,“缺陷”概念恐怕已不能解釋人工智能致損問題。本文即論證,“缺陷”概念將在人工智能語境中走向消亡,而當它消亡后,人工智能致損的無過錯責任立場或許將更加穩固。

      此外,在正式進入話題前,需要進行三點澄清:第一,人工智能致損的侵權責任存在多種場景,即便排除生成式人工智能和服務型人工智能的侵權問題(諸如醫療人工智能、人形機器人等人工智能產品的侵權問題),也頻繁存在著侵權事實,為形成聚焦,同時回應實務關切,本文只以自動駕駛致損作為研究對象,但其結論或可推廣至其他應用場景;第二,自動駕駛相關產品有硬件產品與軟件產品之分,硬件產品通常為有形物,納入現有產品責任體系不存在疑難,故本文討論對象僅為自動駕駛人工智能中的軟件產品,即自動駕駛模型;第三,產品責任在此處指的是人工智能軟件產品提供者承擔的責任,不涉及開發者、訓練者、測試者等主體。

      自動駕駛人工智能產品“缺陷”問題的理論與立法

      損害責任是人工智能法律責任問題的一個焦點。目前的主流觀點是對(除生成式人工智能與服務型人工智能之外的)人工智能損害責任適用產品責任,主要包括制造缺陷、設計缺陷和警示缺陷,其中又有觀點認為,純粹由模型本身的決策造成的事故損害適用設計缺陷,其核心是判斷人工智能軟件是否造成了“不合理的危險”,只要其造成“不合理的危險”,便認定模型設計者違反其注意義務,因而存在“過失”。本文將證明,最近從計算機科學中發展出來,并延伸至法學的理論共識,已經證明這種歸責原則是對人工智能算法(預測)的不恰當想象。為此,需要前置性地解釋什么是人工智能預測和決策,這里以自動駕駛為切入點。

      (一)純粹設計缺陷

      自動駕駛致損中的歸責是一個復雜問題。按照通常的技術分解,自動駕駛中人工智能決策機制大體包括“感知、預測、決策”三個模塊。其中,“感知”是指通過傳感器、互聯網以及駕駛員指令而形成的數據輸入,“預測”是基于輸入數據而輸出可能發生之事件的條件概率,“決策”是基于輸入與預測而輸出行動選擇。計算機科學通常會將預測模塊稱為預測模型(predictive model),而將決策模塊稱為決策函數(decision function)。自動駕駛場景中,預測模型的輸出可簡單理解為事故概率的高低,而決策函數的輸出包括橫向和縱向控制、輔助性提示、發出警報和接管請求,接受或拒絕動態駕駛任務后援用戶的接管指令等。其中每個模塊出現的錯誤都存在不同的可能原因,比如,遍布車身的傳感器未能感知到相關環境信息,既可能是因為汽車自身的制造問題,如傳感器的部署位置不合理,其固定方式存在缺陷等,也可能源于外在因素,如異物遮擋、空氣中微粒的反射、外部光線影響等。同樣,自動駕駛系統在決策時的錯誤也可能與汽車其他硬件的故障(如輪胎缺陷、制動缺陷、車身強度缺陷)、車外人員過錯,或者路面塌陷、雜物等問題有關。

      這里不討論上述所有的制造因素和外在因素,并且排除系統死機、癱瘓、黑客攻擊、后臺安全員的過錯等因素導致的故障,僅僅關注自動駕駛模型基于其正常的預測和決策造成之損害的歸責問題。也就是說,本文僅關注自動駕駛汽車按照人工智能的正常指令行駛,依然發生事故時責任的歸屬問題。

      此外,自動駕駛決策的一個重要議題分支是碰撞時的倫理函數設計,也就是人們熟悉的“電車難題”,學者們認為,既然要研究自動駕駛模型決策,就必須明確“碰撞的優先性規則”。這里需要澄清,本文所分析的話題與“電車難題”議題有明確分工,后者要處理的是,倘若人工智能必須在幾種碰撞后果之間進行抉擇,怎么撞才能在道德上被證成;而本文處理一個邏輯上更靠前的問題,即為了激勵企業去部署更安全的自動駕駛人工智能模型,應當如何設計歸責原則。它之所以在邏輯上更靠前,是因為它不解決碰撞對象之間的損害分配問題,而解決如何在總體上減少碰撞的問題。

      (二)地方性法規中若隱若現的“缺陷”概念

      民事責任是自動駕駛責任體系中起到示范作用的一部分。但在我國,無論是《民法典》還是《道路交通安全法》都沒有就自動駕駛中的侵權責任認定方式進行明確規定。相關責任規范更多是由這幾年陸續出臺的一些地方性法規來先行補充。有的地方性法規明確地把車輛存在缺陷作為責任標準,比如,2022年8月1日實施的《深圳經濟特區智能網聯汽車管理條例》第53條分別將有駕駛人和無駕駛人兩種情況下智能網聯汽車一方責任歸給駕駛人和車輛所有人、管理人,緊接著,其第54條又規定,“智能網聯汽車發生交通事故,因智能網聯汽車存在缺陷造成損害的,車輛駕駛人或者所有人、管理人依照本條例第五十三條的規定賠償后,可以依法向生產者、銷售者請求賠償”。根據該條例,自動駕駛汽車生產、制造、銷售者、自動駕駛系統開發者是第二順位的責任人,其還額外明確,第二順位責任人承擔責任的依據是汽車“存在缺陷”。究竟是什么缺陷,沒有明確的說法,不過,可以合理推測其應當是指汽車安全設施設備、自動駕駛系統軟件的缺陷。于是,在交通事故中,導致汽車安全設施設備、自動駕駛系統缺陷的行為,就與事故中各方的其他過錯行為一起參與責任的分配,對于這一點,2024年5月1日施行的《杭州市智能網聯車輛測試與應用促進條例》明確規定,“智能網聯車輛發生交通事故的,應當根據事故各方的行為對事故發生所起的作用以及過錯嚴重程度,確定各方的事故責任”。

      這些規定隱含的是一種過錯的邏輯,其假設的是,在汽車及其軟硬件的設計、制造中發現缺陷,可以作為制造者、設計者存在過失的依據,因此可以成為他們“加入”事故責任方,按照過錯程度分擔責任的依據。我們稍后討論這種責任承擔方式在人工智能責任問題上面臨的困境,先來看看學者們通過哪些途徑來支持這一過錯的邏輯。

      自動駕駛軟件缺陷通常被歸類為設計缺陷。所謂設計缺陷,指的是產品在設計和策劃時就存在的方案上的固有缺陷,并且這種缺陷是“比較出來的”。按照美國侵權法第三次重述,設計缺陷是指:對于產品固有的、可預見的損害風險,產品設計者、生產者、商業分銷鏈中的其他參與者原本可以采取更合理的替代性設計方式來減少或者消除該風險,但因為自身的疏忽而未能采用替代性設計,而需要為其過失承擔責任。也就是說,設計者和生產者原本可以采取替代性設計方案,因“疏忽”未付諸實施,這一事實證明了其對缺陷具有過失,故成為責任的依據。因此有學者指出,美國侵權法第三次重述對設計缺陷的規定使得設計缺陷“不再關注產品本身,而是轉向關注生產者行為的合理性,從而使其具有了更多可歸責性和過失責任的韻味”,“設計缺陷和警示缺陷的認定上融入了過失責任的因素”。

      那么,何種情況下,自動駕駛軟件的提供者會被認為具有過失呢?通常認為,“對于其軟件設計中的明顯漏洞,應當直接認定為設計缺陷”。也就是說,雖然我們并不事先知道自動駕駛模型會在什么場合下產生錯誤,但是只要這個錯誤是連人類駕駛員都不太會犯的明顯錯誤,就應當認為自動駕駛軟件存在設計缺陷。在這個論證中,自動駕駛軟件和駕駛者的比較,相當于車輛測試安全員和普通駕駛人的比較,前者雖然會遭遇事故,但其往往遭遇的是一些不可避免的事故,一些倘若普通駕駛人接管,更加無法躲避的事故。反過來說,若自動駕駛系統因為其決策方案的漏洞而犯一些普通駕駛人都不會犯的錯誤,那么它顯然沒有采用最佳的設計思路,也就意味著,一定還有更好的、已經應用的軟件設計可以避免這些錯誤,因此不采取這些設計就構成設計者的過失。

      將自動駕駛軟件類比為車輛測試安全員,一個隱含的想法是:錯誤是一個一個犯下的,因此,一個學習能力良好的行動者可以一個一個彌補它們,沒有達到這種良好的學習能力,本身就是一種過失。更關鍵的是,它假設了宏觀層面的錯誤率與個體層面的錯誤程度之間的一致性,即一個總體上會犯更少錯誤的駕駛者(比如車輛測試安全員)大概率會去避免那些很低級的錯誤,反之亦然,所以,自動駕駛模型的性能與設計缺陷中的錯誤概率呈反比,性能越好,具體場景中就越不可能犯錯。這個設想和我們當下的責任體系與歸責原則保持著高度一致,當我們基于這個思路,將責任歸給自動駕駛人工智能產品的提供者時,可以沒有負擔,因為按照該思路,那些被認定為具有“缺陷”的自動駕駛軟件,顯然是性能上不過關的瑕疵技術產品,投放到市場中只會降低道路交通安全性。

      已經有學者反思這一對自動駕駛技術采取的歸責模式,可能是對人工智能領域“缺陷”問題的一個誤解。其指出:“很多情況下,一項孤立的、可以通過幾行代碼加以糾正的、從一開始就能避免的缺陷,將不會存在或者至少無法證明。事實上,不能通過改寫幾行代碼就解決個別缺陷,因為自主學習系統不是這么設計的。對于系統在緊急情況下某種行為的改變,必然會改變自主系統在其他潛在事故情形中的行為,這會帶來不可預見的結果。”其潛在含義是,人工智能減少其總體錯誤率的過程,與克服個別錯誤的過程,是不可直接加以等同的,而這也是“缺陷”這一概念不能被簡單套用至人工智能領域的原因。

      但時至今日,還沒有學者使用一套明確的理論框架來解釋為什么人工智能系統的性能與它在個別場景中的錯誤率之間存在著比我們所想象的更復雜的關系。下面,我將借助計算機科學家以及一部分法學學者最近發展出來的一套理論來展示一個論斷:當模型的安全性整體提升時,它在個別情況下出現誤判的概率也會增加,所以,沒有一種缺陷認定標準能夠就宏觀和微觀部分給出統一的安排,法律責任體系的設定是在三種不同的“缺陷”概念之間進行抉擇。

      人工智能產品“缺陷”的三種概念

      認為自動駕駛算法(模型)存在設計缺陷,狹義上看就是指它可能存在預測上的缺陷,比如,倘若某個駕駛行為事實上開啟了危險,而人工智能預測其很安全,那么基于這一錯誤預測就可能導致事故,一旦這樣的錯誤預測大量發生,就有理由認為模型存在設計上的失誤。

      當前的自動駕駛技術還處于人機協同駕駛階段,意味著人工智能尚未全面超越人類駕駛員,其在預測時最重要的工作是比較某個緊急場景下自動駕駛與人類駕駛的風險。如果認為自動駕駛風險比人類駕駛更高,那么它傾向于采取的決策包括發出警報、發出接管請求以及采取危險最小化駕駛動作等;而倘若認為自動駕駛風險低于人類駕駛,則合理的決策是徑直控制車輛完成規避動作,不發出警報,甚至L4及以上自動駕駛等級的車輛可以選擇暫緩執行人類駕駛員的接管指令。但既然自動駕駛模型是否存在缺陷,取決于其預測能力,那么,究竟如何評價一款人工智能軟件的預測能力呢?要坦承的是,沒有人知道自動駕駛模型的具體預測機制,目前主流自動駕駛軟件均采用深度學習算法,意味著包括軟件設計工程師在內的幾乎所有人都無法知曉模型的預測方式。所以問題轉化為,如何繞過模型的內部機制來評價它的性能?答案是通過“統計”,也就是通過道路測試等方式來統計和比較模型的各項數據;我們可以通過觀察自動駕駛模型預測了什么與實際上發生了什么之間的統計關系,來判斷人工智能是否存在缺陷。為此,下面引入三個和統計學密切相關的“缺陷”概念,在人工智能致損議題上,它們都被法學學者主張或討論過,但尚無研究來揭示它們彼此之間的關系。

      (一)假陰(陽)性率

      “假陰(陽)性率”或者“錯誤率”,指的是當某個事件或狀態存在(或不存在)時,預測結論與實際情況不符的比率。其包含兩種,一是事件或狀態實際上并不存在,但預測其存在,稱為假陽性;二是事件或狀態實際上存在,但預測其不存在,稱為假陰性。在自動駕駛建模過程中,假陽性是指,預測自動駕駛風險高,但實際上并非如此,所以車輛會錯誤地發出接管請求、警報等;假陰性是指,預測自動駕駛風險低,但實際上并非如此,這意味著,車輛可能本應當發出警報而未發出,或者本應當請求駕駛員接管,卻選擇由自身完成駕駛行為(甚至抵觸駕駛員主動接管的指令)。顯然,錯誤地預測自動駕駛風險低于人類駕駛,是更嚴重的錯誤,原因是,它最終讓駕駛員喪失了規避事故的機會。在責任體系中,一旦能夠舉證證明自動駕駛系統經常性地錯誤預測自動駕駛風險低于人類駕駛(也就是說,雖然自動駕駛事實上發生了事故,但它預測不會發生事故,這就是為什么它被稱為假陰性),似乎應當肯定系統存在缺陷。

      倘若將假陰性率作為核心考慮因素,我們可以得到自動駕駛軟件設計缺陷的第一個概念。“設計缺陷”概念I:倘若在所有事實上發生事故的情況中,一款自動駕駛軟件經常性預測自動駕駛不會發生事故(沒有發出接管請求、警報,或者暫緩執行駕駛員的主動接管指令),因此具有較高的假陰性率,則應當認定該軟件存在設計缺陷。

      (二)陰(陽)性預測誤差率

      然而,假陰(陽)性率只能測量實際上發生某個結果時,模型給出錯誤預測的概率,它無法評價模型本身的預測誤差率或者說它的預測能力。所謂的預測誤差率是指,當一個關于事件或狀態存在(或不存在)的預測被給出時,它不符合實際情況的比率。其同樣包含兩種情況,即陰性預測誤差率與陽性預測誤差率。其中,陰性預測誤差率是指預測一個事件或狀態不存在,但其事實上存在的比率;陽性預測誤差率是指預測一個事件或狀態存在,而其事實上不存在的比率。為了區分假陰(陽)性率與陰(陽)性預測誤差率,不妨考察表1,表格中的“+”代表陽性結果,“—”代表陰性結果,a、b、c、d各自指代一個特定數值。

      表1 假陰(陽)性率與陰(陽)性預測誤差率的比較


      比如,若要測量的是假陰性率,則需計算b除以(a+b)的結果,也就是說,它計算的是所有實際上為陽性的結果中,有多少被錯誤地預測為陰性;而如若所測量的是陰性預測誤差率,要計算的事項變成b除以(b+d)的結果,它的含義是,當一項陰性預測被給出時,它的失敗概率(預測對象事實上為陽性的概率)是多少。

      現在,考慮到自動駕駛模型的預測準確性同樣對自動駕駛產品的性能具有關鍵意義,如將預測誤差率作為核心考慮因素,我們可以得到設計缺陷的第二個概念。“設計缺陷”概念II:倘若一款自動駕駛軟件經常性預測自動駕駛會(不會)發生事故,但事實上沒有發生(發生了)事故,預測能力較差,則應當認定該軟件存在設計缺陷。

      (三)基礎率

      前兩個概念聚焦于模型的預測功能。但我們通常討論自動駕駛系統的性能,除了評價它的預測功能,更常見的是評價它在真實世界的表現。為此,計算機科學家借用統計學上的術語即基礎率(base rate),來描述模型的性能。所謂基礎率,就是比較自動駕駛和人類駕駛在事故絕對數量上的差異,比如,在全部100個緊急場景中,自動駕駛事實上避免了其中85起事故,人類駕駛員只避免了其中25起事故,則應當認為自動駕駛的事故基礎率為0.15,人類駕駛為0.75,從基礎率上看,自動駕駛比人類駕駛更安全。之所以要使用基礎率來評價自動駕駛,同樣在于自動駕駛的預測模型與決策函數不可知,因此只能通過其在真實世界的表現推測其安全性。學者們通常會說,由于自動駕駛技術的發展,開車比過去更安全了,自動駕駛的事故概率比人類駕駛更低,其所指的就是自動駕駛的事故基礎率低于人類駕駛。

      可以認為,當汽車行業的總體共識是,自動駕駛旨在提高汽車的安全性,因此自動駕駛風險應當低于人類駕駛,則兩者之間事故基礎率的比較將成為軟件提供者是否存在過失的依據。由此,自動駕駛人工智能軟件的使用者,可以舉出“該自動駕駛軟件的事故基礎率事實上高于人類駕駛”的統計型證據(statistical evidence),來證明其存在設計缺陷。我們因此得到了自動駕駛系統設計缺陷的第三個概念。“設計缺陷”概念III:倘若一款自動駕駛軟件的總體事故基礎率高于人類駕駛,或者其在某些駕駛場景中的事故基礎率高于人類駕駛,則應當認定該軟件存在設計缺陷。

      可以發現,這三種“缺陷”概念都符合我們對人工智能產品提供者責任的直覺認識,似乎都能用以證明其存在某種程度上的“過失”。更關鍵的是,我們會認為這些“缺陷”之間存在因果上的聯系,從人類的視角看,具體事故中經常犯錯的駕駛員,其駕駛技術的拙劣,在宏觀上一定體現為他缺乏敏銳的預測能力,并因此造成了更多交通事故。實際上,也正是這種思考的慣性,讓我們不假思索、心安理得地將傳統的責任體系賦予自動駕駛,因為只要明確自動駕駛軟件符合其中一種“缺陷”概念,就能合理地推測它同時符合另外兩種“缺陷”概念。

      人工智能產品“缺陷”的理論困境

      然而,最近的一些研究進展表明,這三種“缺陷”概念在人工智能致損責任問題上不僅不存在正向聯系,而且它們之間實乃“悖反關系”,解決其中兩項“缺陷”的過程,往往伴隨著放大剩下一項“缺陷”。為了解釋何以如此,下面將提出一種描述框架。

      (一)自動駕駛軟件性能的法律評價方式

      不妨通過一個思想實驗來說明三種“缺陷”的悖反狀態。現假設,智能網聯車輛測試主體針對道路測試中事故情況收集的數據已能夠幫助其比較自動駕駛與人類駕駛的事故率。為消除復雜性,聚焦于最根本的問題,假設該測試主體目前只比較了某一駕駛場景下自動駕駛與人類駕駛的事故率,并假設這些數據均具有真實性和統計上的科學性,進而形成表2所示的結果。表格中的全部數字僅反映“實際事故情況”,在縱列中體現為“事故”和“無事故”兩個分組,橫排則反映了自動駕駛模型對事故的預測情況,也就是它對目前駕駛狀態下(其中的自動駕駛是指最終駕駛狀態為自動駕駛;人類駕駛是指最終駕駛狀態是關閉自動駕駛系統而由人類駕駛員控制車輛)發生事故概率的預測。為簡化問題,這里的預測只有二值分類(即只有“高”和“低”兩個風險等級),而不包含連續性的風險評分。

      表2 自動駕駛狀態下的事故情況和人類駕駛狀態下的事故情況


      表2左側的數據體現的是該場景下自動駕駛的事故率。在100個樣本中,事實上有71個樣本未發生事故,29個樣本發生事故,事故基礎率為0.29。若更細致地分析,會發現有69個樣本的預測是“自動駕駛風險低”,并且事實上未發生事故,有22個樣本的預測是“自動駕駛風險低”,但事實上發生了事故,由此,可計算該模型在預測自動駕駛風險低時,其預測誤差率為22/(22+69)即0.253。同理,由于模型在預測自動駕駛風險高的9個樣本中有7個發生了事故,2個未發生事故,可發現該模型在預測自動駕駛風險高時的預測誤差率為2/(2+7)即0.222。

      現在將人類駕駛的情況納入,以期比較。在表2右側,100個樣本中事實上發生事故的是66個樣本,未發生事故的是34個樣本,事故基礎率為0.66。其中,有60個樣本的預測是“人類駕駛風險高”,且事實上發生事故,20個樣本的預測是“人類駕駛風險高”但并未發生事故,可計算模型在預測人類駕駛風險高時的預測誤差率為20/(60+20)即0.25。與此同時,模型在預測人類駕駛風險低的20個樣本中,6個發生了事故,而14個未發生事故,表明模型在預測人類駕駛風險低時的預測誤差率為6/(6+14)即0.3。

      基于這些數據,如何評價該款自動駕駛軟件的性能?第一是預測誤差率。我們會發現,模型在全部四種情況下的預測誤差率均不超過0.3,可認為其有良好的預測能力,可以同時準確評估該場景下自動駕駛和人類駕駛員駕駛的風險。第二是事故基礎率。自動駕駛的事故基礎率為0.29,人類駕駛的事故基礎率則達到0.66,為前者的兩倍多。因此,可認為該款自動駕駛軟件的駕駛能力遠比平均水平的人類駕駛員優異。

      (二)三種“設計缺陷”的不可能三角關系

      考慮到自動駕駛模型“設計缺陷”的第二個概念指向糟糕的預測準確性,第三個概念指向高于人類駕駛的事故基礎率,我們似乎可以認為,該款軟件同時規避了這兩種“缺陷”。其表明,自動駕駛軟件設計開發和測試者只要努力在道路測試(以及在真實世界)中降低預測誤差率,并降低事故基礎率,就可以避免基于產品缺陷的指控。但事實真的如此嗎?

      根本問題在于,此處對預測誤差率的理解忽略了訴訟的語境。通常情況下,能夠進入訴訟的案件往往是“已經發生事故”的案件,無論模型對風險的預測有多準確,那些被準確預測且未發生事故的樣本都不會進入司法程序,因此只需要考慮,在所有已經發生事故的樣本中,模型的假陰性率是多少。

      為此再來看,表2左側顯示自動駕駛導致了總共29起事故,其中,模型只在7起事故中給出了高風險預測,而在22起事故中給出了低風險預測,也就是說,實際上發生事故時,模型給出錯誤預測的概率高達0.759,與之截然相反的是,在總共71個未發生事故的樣本中,模型只對其中2起給出了高風險預測,所以當實際上無事故時,錯誤預測的概率反而又低至0.028。反過來,我們會在表2右側看到與之相反的情形,對于人類駕駛而言,實際發生事故的情況下模型給出錯誤預測的概率僅為0.091,而實際上無事故時,模型的錯誤預測概率(也就是錯誤地預測人類駕駛員可能造成事故)高達0.589。

      假設所有發生事故的案件都進入訴訟程序,人們會驚訝地發現,這款軟件對人類駕駛發生事故的預測在準確率上是它對自動駕駛發生事故的預測的八倍。下面用表3呈現所有需要列出的數據。

      表3 兩種駕駛狀態下各項指標的比較


      表3顯示,自動駕駛軟件雖呈現出卓越的預測能力,但對于所有進入訴訟程序,要求人工智能提供者承擔產品責任的當事人而言,他們遭遇的事故都可歸咎于軟件預測功能在自動駕駛狀態下極高的假陰性率。并且看上去,當事人可以合理地認為“設計缺陷”概念I指的就是這一假陰性率,畢竟,自動駕駛車輛事實上發生了事故,模型在此前卻預測其不會發生事故,因此沒有發出接管請求、警報,或者暫緩執行駕駛員的主動接管指令。似乎有理由認為,當這一情況的概率足夠高時,產品設計顯然存在缺陷。若有人懷疑這一假陰性率是否真的很高,就把人類駕駛的對應數據拿來比較,在人類駕駛時,若發生事故,軟件錯誤地預測其不會發生事故的概率僅為0.091,這是一個不可接受的差異。

      也許有人會說,既然較高的假陰性率構成自動駕駛軟件的產品設計缺陷,那么,只要在確保自動駕駛模型較低的事故基礎率和合理的預測能力的情況下,借助算法的改進來降低假陰性率即可。這也構成開發者和產品提供者對設計缺陷存在過失的依據,畢竟,在原本能夠避免更多的模型預測錯誤的情況下,未能這么去做,表明責任主體違反了其注意義務。此處的“缺陷”剛好迎合了美國侵權法第三次重述以及許多國內學者所理解的“設計缺陷”的規范內容,即當更好的設計方案具有現實可行性時,依舊維持那個更差的方案而不思改進,本身就構成過錯。在這里,過高的假陰性率是那個需要被“改進掉”的更差的設計。

      與一開始的直觀感受相悖,在仔細考察后,我們轉而傾向于認為,這款軟件具有缺陷。但這種判斷上的傾向,依舊根植于我們對人工智能的擬人化想象,我們會認為人工智能模型的改進是它逐一將身上的缺陷消除的過程,好比一個學生從初學者開始,一點點讓自身的能力成熟和完善,用具體計劃和目標去克服那些看得見的不足。若人工智能的某個指標難以達到理想狀態,那么在不改變其他要求的情況下直接對其加以改善即可,就好像算法工程師可以徑直命令它改掉這個毛病。

      然而,這種擬人化是對人工智能的深刻誤解,我們很快會看到,自動駕駛人工智能技術的最獨特之處,就在于它的進步并不是“線性的”“直觀的”,乃至“可理解的”,進而體現為較低的事故基礎率、較低的預測誤差率以及較低的假陰性率這三者在理論上根本無法同時被滿足。

      現在,要證明自動駕駛軟件存在缺陷,一個明確的路徑是證明其與市面上的其他同類產品相比,不具有目標客戶所期望的平均安全性,因為它的假陰性率(即事實上發生事故的情況下卻預測其不會發生事故)畸高,原告可以進一步舉證,因為人工智能類軟件越來越兼具“產品”和“服務”的雙重屬性,所以未能及時更新自動駕駛軟件以降低假陰性率,構成責任人的過失。

      問題是,如何更新該軟件呢?回到表2左側,要想降低假陰性率,則必須在實際發生事故的樣本中提高高風險預測的比例,并同時降低低風險預測的比例。對此,可行的思路是采取騰挪法,也就是從預測自動駕駛風險低且事實上未發生事故的樣本中挪出一部分補充至預測自動駕駛風險高且事實上發生事故的樣本中,同時,再從預測自動駕駛風險低且發生事故的樣本中挪出一部分填充至預測自動駕駛風險高且未發生事故的樣本中,形成所謂的“交叉騰挪”。它的優勢在于能夠確保自動駕駛汽車維持較低的事故基礎率,保證人工智能的安全性,但它同時也將顯著提高預測誤差率。在完成“騰挪”后呈現的表4中(“↑”代表數值上升,“↓”代表數值下降),雖然實際上發生事故時給出錯誤預測的概率(即假陰性率)從0.759下降至0.333,但預測“發生事故”的誤差率從0.222上升至0.412。

      表4 自動駕駛模型性能第一次調整


      反過來,倘若算法工程師決定讓假陰性率降低,同時讓預測誤差率維持在較低水平,他可以選擇進一步調整表4,大規模砍去預測自動駕駛風險低且事實上無事故的樣本數量,同時大量增加預測自動駕駛風險高且發生事故的樣本數量,得到表5。的確,這時候假陰性率進一步降低至0.178,同時,預測“發生事故”的誤差率保持在0.234,看上去是一個皆大歡喜的結果。遺憾的是,這一“改進”丟失了人工智能帶來的最大進步,它讓自動駕駛的事故基礎率從0.29上升到了0.56,幾乎倒退至人類駕駛時的事故基礎率。

      表5 自動駕駛模型性能第二次調整


      我們還可以將“騰挪”的過程繼續進行下去,但最終必然只能承認,事故基礎率、預測誤差率以及假陰性率這三者不可能同時按照設計者的意向去改進,總有一項指標會在其他指標改善的同時趨于惡化。晚近的計算機科學已經證明,這三者的不可能三角關系或許無法通過任何算法(或模型訓練)來緩和。于是問題就演變為,倘若必須要犧牲一項指標以維持自動駕駛產品的安全性,究竟應當如何抉擇?這不僅是一個技術問題,而且是一個法律問題,因為只有當受克減的指標被視為必要的、不得不承受的犧牲時,才有理由使產品豁免于設計缺陷的指控。

      我們顯然不能在事故基礎率上讓步,若自動駕駛沒有能夠避免更多的事故,技術進步將失去它最重要的意義。所以,一開始所遭遇的局面就是自動駕駛與人類駕駛的事故基礎率不同,而前面已經顯示,只要基礎率不同,降低(或維持)預測誤差率與降低假陰性率就是兩項不可能同時完成的任務。那么,我們是否有理由為了降低假陰性率而犧牲一定的預測準確性?應該說,犧牲預測準確性不符合產品目標客戶的期待,因為盡可能準確的預測同樣包含在人工智能產品(服務)購買者的合理權利訴求內。更重要的是,犧牲預測準確率的結果可能是更高的安全風險和更多的事故。

      如此看來,可接受的結論是,在自動駕駛技術趨于完善的情況下,要容忍人工智能模型較高的假陰性率。一旦推進到這一步,就可以發現在自動駕駛領域,產品缺陷尤其是其中的設計缺陷不再能夠發揮實質作用,因為它在一定程度上排除了“預測錯誤”這一乍一看顯而易見的缺陷。后面將說明,這意味著人工智能致損侵權責任不能建立在以“缺陷”為核心的產品責任體系上,而是要在實體上堅持無過錯責任,在證明上確保對統計型證據的有效利用。

      告別“缺陷”后的無過錯責任方案

      本文開篇指出,在人工智能致損責任問題上,支持過錯責任的學者嘗試在產品責任體系中借助“缺陷”概念來確立人工智能提供者的注意義務與過錯根據。但前面已經證明,人工智能領域,產品缺陷似乎無法涵蓋模型性能指標的取舍問題。而在一定程度上放棄產品責任的思路后,無過錯責任可能成為較合理的理論選項。

      (一)以“傷害”為中心的歸責

      侵權法最核心的概念是“傷害”(harm),更準確地說是因過錯而導致的傷害。現代侵權法“承認一系列故意的過錯,但它最為關注的是意外事故背后的過錯”。但是,基于過錯的傷害預設了一個前提,它必須是責任主體對危險源的具體疏忽,或者退一步說,它必須指向風險背后的具體過錯,所以,產品責任中的缺陷,指的是與致損的結果具有因果關系的具體缺陷。

      自動駕駛人工智能“缺陷”的三種概念,與具體損害的相關性程度是依次遞減的。假陰性率的相關性最高,它涉及人工智能對本次事故的預測可能性;預測誤差率次之,它涉及的是人工智能準確預測類似事故的概率;事故基礎率最不相關,因為它只關注自動駕駛軟件在所有情況下的綜合表現。若是完全遵循侵權法的歸責原則,第一種“缺陷”理應成為歸責依據,但前面已經指出,倘若我們將畸高的假陰性率視為自動駕駛軟件的缺陷,那么合理的替代性設計是想盡辦法降低它,但這必然會影響軟件在預測誤差率和事故基礎率方面的表現,讓自動駕駛變得更不安全。

      考慮到數字時代侵權法的一個重要轉型是“從個體救濟轉向關注群體福利的保護”,為了保證更一般的公共利益,當軟件在自動駕駛性能上表現優越時,根本不應當將畸高的假陰性率視為一種缺陷。因此,我們只能將三種“缺陷”(過錯)概念中與事故最可能建立因果關系的那個排除,這就構成了對傳統侵權法原則的突破。它意味著,我們不能苛責產品提供者未提高系統預測本次事故的可能性,即使它的預測失敗是一個大概率事件。換句話說,過錯的具體性被放棄,故“缺陷”在自動駕駛場景中被取消了。現在要問的是,在形成這一突破后,究竟應當如何設計歸責原則?

      簡單以“過錯”作為責任承擔來源的思路已經難以為繼,前面說過,自動駕駛算法在三種指標之間的取舍,已經難以被簡單概括為過錯的問題,那么緊接著需要處理的便是人工智能侵權責任的立法模式是否在當前情況下適用。

      (二)人工智能產品責任立法應當超越“缺陷”

      目前,人工智能侵權責任較成熟的立法模式來自歐盟。其主要有兩個文件。第一個是歐盟委員會于2022年9月提出的立法建議稿《關于使非合同性民事責任規則適應人工智能的指令》即“歐盟2022/0303指令建議稿”(以下簡稱《人工智能責任指令》)。第二個是歐洲議會和歐盟理事會新修訂的《關于缺陷產品責任與召回責任的理事會指令》即“歐盟2024/2853指令”。

      先看《人工智能責任指令》,根據該建議稿第4條,當下列三個條件滿足時,應當推定被告的過錯與人工智能系統產生的輸出或者未能產生輸出之間存在因果關系:第一,原告已經通過舉證或者推定的方式證明被告存在過錯;第二,根據案件情節,可以合理地認定該過錯對人工智能產生特定輸出或者未能產生特定輸出造成了影響;第三,原告已經證明,人工智能產生的輸出或者其未能產生之輸出與損害結果存在因果關系。

      在因果關系“推定”的前提下,核心任務是如何證明被告存在“過錯”。在設計缺陷中(這里排除制造缺陷、受害者與有過失或者第三者責任的情況),被告的“過錯”可通過幾種方式加以證明。其一,未遵守法律規定的旨在降低人工智能風險的“注意義務”,比如,違反了歐盟《人工智能法》第29條“高風險人工智能系統部署者的義務”。其二,雖沒有違反法定義務,但違反了合理的安全保障義務。然而,評價人工智能模型的提供者是否違反了自身的法定義務或者安全保障義務,關鍵在于檢視其是否訓練出指標上達到要求的模型,但正如前面所說,假陰性率、預測誤差率和事故基礎率這三項標準之間存在著數學上的悖反關系,若是將它們均視為注意義務的內容,則根本不存在一款沒有缺陷的自動駕駛軟件。由此,問題依然在于如何取舍,或更直截了當地說,在于究竟哪個標準不被視為“缺陷”。

      之前說過,“畸高的假陰性率”不應被視為“缺陷”,因為改善它就意味著要放棄低預測誤差率或者低事故基礎率,帶來不可接受的結果。但該判斷仍面臨阻礙。以歐盟《關于缺陷產品責任與召回責任的理事會指令》為例,該新修訂的指令在第10條第2款規定了產品缺陷的幾項推定事由,其中(c)項的內容是,“索賠人證明,在以合理方式可預見地使用產品或者在通常情況下使用產品時,損害由產品的明顯故障(obvious malfunction)造成”。也就是說,若駕駛員非常正常地開啟自動駕駛功能,但沒有任何預兆地發生交通事故,則可認為自動駕駛軟件存在明顯故障,因為它發生交通事故這件事突破了一位普通駕駛員的能力下限。這種明顯故障恰恰就是畸高的假陰性率會帶來的,因為當預測活動的假陰性率過高時,模型會大量地將那些事實上具有事故風險的自動駕駛操作誤判為沒有風險,因此未能發出預警或接管請求。難以想象,在上述法條定義中,畸高的假陰性率不被視為“明顯故障”。

      可見,無論是《人工智能責任指令》還是《關于缺陷產品責任與召回責任的理事會指令》,都沒有投入法律資源處理人工智能產品“設計缺陷”所遭遇的這一極為特殊的困境。我國各地試點的地方性法規中也存在類似問題,本文在開始處已經指出,《杭州市智能網聯車輛測試與應用促進條例》將“缺陷”納入“過錯”這一更大的概念,但自動駕駛軟件的訓練過程本身就意味著取舍,不能認為算法工程師保護其中一些指標(以保障群體福利)而犧牲另外一些指標就構成所謂的過錯,必須引入一個新的框架,來重新布置人工智能致損的責任分配體系。

      (三)責任認定的二層次方案

      可以明確的是,對于自動駕駛人工智能系統而言,將總體性能作為評價基礎是合理的,這就意味著,一個模型只要足夠安全,那么就應當認為其不具有侵權法意義上的設計缺陷。但“安全”不是一個個別事實,它是一個有關能力和傾向的事實,它指的是,在大多數緊急場景中,模型都比人類駕駛員更安全。所以,為了測量它的安全性,我們應當關注事故基礎率和預測誤差率,只要自動駕駛的事故基礎率足夠低,它對危險的預測足夠準確,就可以認定其具有安全性。這樣一來,取舍就明確了,我們應當放棄把假陰性率作為“過錯”和“缺陷”的依據。必須承認,一旦將焦點放在事故基礎率和預測誤差率上,我們對模型安全性的判斷就大體上脫離了本案的具體情境,而需要求助那些看上去無關的統計性事實。但這一有意的“超脫”是必要的,它尊重了人工智能與人的巨大差異:對于人而言,總體性的改善可以被理解為大量個別改善的加總,所以,對其在個別情況下的錯誤施加罰則是合理的。但對于人工智能而言,總體性改善與個別改善之間的關聯是一個黑箱,強制其對個別情況進行調整,不僅不一定改善總體,而且有可能貽害總體,這一點已經被事故基礎率、預測誤差率和假陰性率之間的不可能三角關系揭示出來了。

      于是,對于自動駕駛人工智能侵權的歸責,就存在實體和證據兩個維度。

      不符合風險基準或市場準入門檻的自動駕駛軟件必須具備兩個特點:第一,與人類駕駛員相比,它在統計意義上造成了更多事故,或者沒能夠避免更多事故的發生;第二,它不具備良好的事故預測能力。這些缺陷表明一款自動駕駛軟件沒有經過良好訓練,因此將其投放于市場本身就構成一種過錯。但平心而論,這種過錯并不會與具體案件中的損害結果建立因果關系,實際上,與損害結果建立因果關系的是畸高的假陰性率,即“對于實際上發生的事故而言,自動駕駛模型極可能預測其不會發生事故”,因此導致了事故。但因為我們已將假陰性率排除,所以實際上,純粹因設計缺陷造成的侵權中,過錯與結果之間的因果關系被排除了,這就意味著在自動駕駛侵權之訴中,此類問題永遠無法滿足過錯要件。

      這一特點在證據維度上體現為一種證據排除規則,即當事人舉證證明自動駕駛模型存在設計缺陷時,若有統計型證據已確證該模型具有低事故基礎率和低預測誤差率,則任何證明該模型的假陰性率高(因此,事實上所發生的事故大概率無法在自動駕駛狀態下避免)的證據將不具有可采性。在此情況下,唯一具有相關性的證據被排除,繼而沒有任何渠道能夠證明人工智能提供者的過錯與損害結果之間具有因果關系。前已述及,“設計缺陷”概念I是最接近法律條文和司法裁判中所使用的“設計缺陷”概念的,但由于證據排除規則的存在,該概念就被取消了,也就是說,不再存在真正意義上的“缺陷”。

      然而,這是否意味著,純粹與軟件設計缺陷相關的事故中,只要能夠通過統計性事實證明自動駕駛軟件的性能過關,便可免除被告責任,而只得由受害人自行承擔后果?也并非如此,可以明確的是,既然損害是由自動駕駛造成的,由受害人承擔損害后果,顯然不公允。法諺云:“當兩個人中必須有人承受損失時,應由造成損失的一方承擔。”所以我們可以采取的立場是一個二層次判斷方案。

      第一層次是“無過錯責任”,即只要能夠證明在事故發生時處于自動駕駛狀態,事故是由自動駕駛模型的決策造成的(即存在行為與結果的因果關系),以及存在損害結果,即由人工智能產品提供者承擔損失。這是由受害人權利受損的事實、利益的流動方向,以及產品經營者對風險的控制力所決定的,但這并不是說提供者必須獨自承擔全部損失,而是說,必須由生產、設計一方“接手”修復、救濟損害的責任,但它同時也允許接手之后責任的分攤,這就進入了第二層次。

      第二層次是“安全性證明+風險基金補償”。目前,已經有一些地方性法規鼓勵企業設立自動駕駛社會風險基金,如《蘇州市智能車聯網發展促進條例》第42條規定,“鼓勵智能車聯網相關主體聯合設立智能車聯網社會風險基金,對因相關事故遭受人身、財產損失的受害者,因責任無法認定等原因不能及時得到賠償時,先予補償”;《上海市浦東新區促進無駕駛人智能網聯汽車創新應用規定》第30條規定,“鼓勵相關行業組織、企業等聯合設立風險基金”。目前所設立的風險補償基金在承擔補償責任時均需滿足附加條件,即“責任無法認定等原因無法及時得到賠償”,實際上是將風險補償基金定位為無責任人時的替代性補償機制。但本文認為,當測試合格的自動駕駛軟件僅僅因為過高的假陰性率而發生事故時,依然應當由風險補償基金承擔替代責任以救濟受害者,原因在于,這種風險是與自動駕駛這項集體性事業的特征相適應的一種風險,一種其成本需要被整個行業所消化的風險。換句話說,倘若汽車行業乃至整個社會都從事故基礎率更低、預測誤差率更低的自動駕駛技術那里獲得了收益,那么這項技術產生的不可避免的成本就應當由整個行業乃至全社會來消化,風險基金實際上就是這種“集體責任觀”的落實——它允許合格自動駕駛軟件的生產者通過購買風險基金將剩余風險成本分攤給行業,而購買風險基金的成本又可以通過定價機制等方式轉嫁給上下游供應商、消費者、企業員工以及股東等主體。

      只不過,風險基金補償不是在所有情況下都適用,只有當被告通過統計型證據舉證證明軟件的事故基礎率和預測誤差率符合行業要求(也稱為“達到自動駕駛算法的安全門檻”,或者“產品的風險基準和市場準入門檻”),因此已盡可能避免可預見的風險時,才由風險基金承擔“剩余風險”,對原告的損失予以補償。若被告不能證明軟件具有合格的性能,或者統計型證據指向的結論是,該款自動駕駛軟件與人類駕駛相比并未更安全(或者在性能上遠不如同類產品),則仍應由其承擔損害責任,原因有兩個:第一,這一做法可驅使人工智能提供者開發更安全的人工智能軟件;第二,考慮到風險基金由相關企業聯合設立,若某一企業“懈怠”的后果最終由其他企業共同分擔,對其他企業不公允。

      結語

      人工智能對法律責任尤其是侵權責任體系帶來的重大挑戰是,我們無法將“過錯”“缺陷”等法律概念不加變動地遷移至諸如自動駕駛這樣的場景,由于模型決策函數的不透明性,必須借助自動駕駛軟件在真實世界的長期表現來評估其安全性,體現為低事故基礎率、低預測誤差率以及低假陰性率的“三低”狀態,但三者實則無法同時得到實現,為了讓事故基礎率和預測誤差率達標以保障公共安全,必須容忍模型較高的假陰性率,在司法上表現為排除假陰性率與損害之間的因果關系。由此,在人工智能領域,我們不再能夠有意義地談論純粹的“缺陷”。問題是,在“缺陷”概念缺席的情況下,如何能夠合理地設計責任規則?有兩個考量因素:第一,人工智能安全事故中的受害者實際上應被視為智能技術普及進程中的犧牲者,從無過錯責任中“獲利者承擔風險”的原理看,應當由該事業的直接受益者,即人工智能相關行業,作為責任主體填補其損失;第二,對于人工智能模型而言,個例中的改進與整體中的改進之間的連接機制是不透明的,倘若我們將整體改進視為更重要的事情,就必須在兩者沖突時,將模型的整體性能表現作為開發者、提供者的免責事由。為此若要設計責任規則,一方面,不得讓受害者(使用者)承擔損失,無過錯責任因此成為唯一的制度選項;另一方面,評估提供者責任時,應當區別對待,對于履行模型整體安全性證明義務的被告人,可通過風險基金補償機制免除其責任,未履行該義務的,則須使其自行承擔責任。

      -向上滑動,查看完整目錄-

      《政治與法律》2026年第2期目錄

      【習近平法治思想研究】

      1.構建中國自主的法學知識體系的“自主性”特征考察

      莫紀宏

      【主題研討——刑法功能主義趨勢下“義務”理論的發展】

      2.刑法學論爭的緩和與刑法功能主義

      周光權

      3.刑法歸責中的支配、能力與義務

      陳璇

      4.義務犯理論的規范基礎與功能界限

      何慶仁

      【專論】

      5.浮動抵押的“空置”困境與物聯網監管轉型

      趙申豪

      6.存在超部門法的一般性法理學嗎

      ——反思法學知識一般化的限度

      張峰銘

      【爭鳴園地】

      7.AI聲音權益的法律性質與保護路徑

      汪倪杰

      【實務研究】

      8.告別“缺陷”:人工智能致損無過錯責任的法理根據

      徐舒浩

      9.論變通規定的制定規則

      陳舒筠

      【史論】

      10.中國古代強奸罪的構成及認定

      殷嘯虎

      11.被法律型塑的日常生活:以南京國民政府和根據地政權為中心

      侯欣一

      《政治與法律》是上海社會科學院主管、上海社會科學院法學研究所主辦的,把政治學和法學融于一爐、以法學為主的理論刊物。《政治與法律》恪守“研究政法理論,推動法制建設”的編輯方針,設有“熱點問題”、“法學專論”、“經濟刑法”、“立法研究”、“學術爭鳴”、“案例研究”等欄目;積極推出國內外法學研究的最新成果。

      點擊進入下方小程序

      獲取專屬解決方案~

      責任編輯 | 郭晴晴

      審核人員 | 張文碩 張科

      本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。


      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      北大法律信息網 incentive-icons
      北大法律信息網
      法律綜合性網站
      11286文章數 17514關注度
      往期回顧 全部

      專題推薦

      洞天福地 花海畢節 山水饋贈里的“詩與遠方

      無障礙瀏覽 進入關懷版