【作者】李川(東南大學(xué)法學(xué)院教授、東南大學(xué)人權(quán)研究院研究人員,法學(xué)博士)
【來(lái)源】北大法寶法學(xué)期刊庫(kù)《華東政法大學(xué)學(xué)報(bào)》2025年第6期(文末附本期期刊目錄)。因篇幅較長(zhǎng),已略去原文注釋。
![]()
內(nèi)容提要:生成式人工智能大規(guī)模處理個(gè)人信息所引發(fā)的侵害個(gè)人信息的新型風(fēng)險(xiǎn),有待刑法有效規(guī)制。然而,生成式人工智能的特質(zhì)在認(rèn)定個(gè)人信息犯罪時(shí)存在行為區(qū)分定性、主體歸責(zé)分配、前置法違反認(rèn)定、對(duì)象范圍邊界、因果關(guān)系判斷等多方面難題,這些難題引發(fā)了刑法規(guī)制困境。追溯困境原因可以發(fā)現(xiàn),刑法個(gè)人信息犯罪設(shè)立于生成式人工智能產(chǎn)生之前,基于刑法先行的特點(diǎn),形成了個(gè)人信息有限賦權(quán)的規(guī)制模式,該模式難以適應(yīng)生成式人工智能場(chǎng)景化處理個(gè)人信息的定制式、一體式、關(guān)聯(lián)式特征,從而造成規(guī)制難題。因此個(gè)人信息刑法規(guī)制應(yīng)根據(jù)生成式人工智能的特質(zhì)轉(zhuǎn)型為場(chǎng)景治理模式,相應(yīng)確立危險(xiǎn)現(xiàn)實(shí)化、信息類型化、結(jié)合識(shí)別目標(biāo)、規(guī)范因果與義務(wù)違反結(jié)合的歸責(zé)路徑與認(rèn)定基準(zhǔn)。
關(guān)鍵詞:生成式人工智能;個(gè)人信息;侵犯公民個(gè)人信息罪;場(chǎng)景治理
目次 一、問(wèn)題的提出 二、生成式人工智能背景下個(gè)人信息的刑法規(guī)制困境 三、基于生成式人工智能特質(zhì)的個(gè)人信息刑法規(guī)制模式轉(zhuǎn)型 四、場(chǎng)景治理模式下個(gè)人信息刑法歸責(zé)的路徑展開 五、余論
一
問(wèn)題的提出
以DeepSeek、ChatGPT為代表的通用型生成式人工智能以多模態(tài)、具身化的強(qiáng)大內(nèi)容生成能力引發(fā)互聯(lián)網(wǎng)的新一輪科技革命,指數(shù)級(jí)提升網(wǎng)絡(luò)社會(huì)的集成化與數(shù)智化水平。然而生成式人工智能在飛速演進(jìn)與廣泛應(yīng)用的同時(shí),帶來(lái)大規(guī)模侵害個(gè)人信息的新型危險(xiǎn)。例如,ChatGPT自發(fā)布以來(lái),多次出現(xiàn)未曾預(yù)料的個(gè)人信息泄露與濫用問(wèn)題,既有語(yǔ)料訓(xùn)練階段個(gè)人信息的不當(dāng)獲取,也有用戶互動(dòng)階段個(gè)人數(shù)據(jù)的隨機(jī)泄露。為此,其曾遭到意大利等國(guó)家的臨時(shí)封禁調(diào)查,所屬公司也多次道歉整改。可見這種生成式人工智能帶來(lái)的個(gè)人信息侵害危險(xiǎn)并不只是偶發(fā)現(xiàn)象或未來(lái)可能,而是已經(jīng)成為現(xiàn)實(shí)大規(guī)模存在的信息安全挑戰(zhàn)。
就本義而言,生成式人工智能就是以內(nèi)容生成為特征的人工智能技術(shù)應(yīng)用。就此定義而言,以DeepSeek為代表的通用型人工智能已經(jīng)是生成式人工智能發(fā)展的第三代形式。在此之前,生成式人工智能經(jīng)歷了初代機(jī)器學(xué)習(xí)模式與第二代深度學(xué)習(xí)模式的迭代演化。因此,在通用型人工智能出現(xiàn)之前,具備文本、圖片、音視頻等內(nèi)容生成能力的生成式人工智能技術(shù)早已在商業(yè)和生產(chǎn)領(lǐng)域得到廣泛部署與應(yīng)用。早期應(yīng)用中已出現(xiàn)AI換臉、AI撞號(hào)等侵犯?jìng)€(gè)人信息的諸多問(wèn)題。而通用型人工智能的出現(xiàn),以其前所未有的算法能力和算力規(guī)模,使這些問(wèn)題進(jìn)一步復(fù)雜化和嚴(yán)重化,誘發(fā)了對(duì)個(gè)人信息的新型全鏈條侵害風(fēng)險(xiǎn),從而全面凸顯了生成式人工智能帶來(lái)的個(gè)人信息保護(hù)危機(jī)。
刑法作為社會(huì)安全的底線保護(hù)規(guī)范,需應(yīng)對(duì)數(shù)字技術(shù)變化帶來(lái)的安全保護(hù)挑戰(zhàn)。就個(gè)人信息領(lǐng)域而言,雖然刑法早已形成了以侵犯公民個(gè)人信息罪為核心的個(gè)人信息專門保護(hù)范式,卻因?qū)θ斯ぶ悄苄录夹g(shù)的適配不足,難以有效遏制生成式人工智能背景下的侵犯?jìng)€(gè)人信息風(fēng)險(xiǎn)。生成式人工智能的全面部署,會(huì)引發(fā)愈演愈烈的全局性個(gè)人信息保護(hù)困境。無(wú)論從解決個(gè)人信息保護(hù)的當(dāng)前問(wèn)題還是實(shí)現(xiàn)未來(lái)保障的意義上,都必須全面檢視當(dāng)前生成式人工智能場(chǎng)景下個(gè)人信息刑法規(guī)制困境的真正所在,并根據(jù)生成式人工智能處理個(gè)人信息的新型特征更新有效歸責(zé)路徑,在個(gè)人信息保護(hù)領(lǐng)域真正實(shí)現(xiàn)刑法意義上的“良法善治”。
二
生成式人工智能背景下個(gè)人信息的刑法規(guī)制困境
無(wú)論是部署前的語(yǔ)料訓(xùn)練還是應(yīng)用后的內(nèi)容生成,生成式人工智能都需要大量收集和處理個(gè)人信息,以便提供定制化、交互式的個(gè)性化服務(wù)。然而,由于生成式人工智能具有高度自主性與算法黑箱的特質(zhì),用戶往往難以在復(fù)雜封閉的運(yùn)行過(guò)程中掌握其個(gè)人信息的加工、使用和存儲(chǔ)。一旦出現(xiàn)個(gè)人信息被人工智能濫用或過(guò)度處理的情況,就可能導(dǎo)致嚴(yán)重的侵害風(fēng)險(xiǎn)。進(jìn)一步而言,生成式人工智能在快速演進(jìn)中已發(fā)展到接近人類認(rèn)知水平的深度理解與運(yùn)算能力,其對(duì)個(gè)人信息的采集和挖掘能力也空前增強(qiáng)。這種未經(jīng)授權(quán)的深度信息挖掘,使個(gè)人信息面臨的侵害風(fēng)險(xiǎn)更容易轉(zhuǎn)化為實(shí)際損害。如AI可大規(guī)模將普通的個(gè)人靜態(tài)照片轉(zhuǎn)化為包含眨眼、點(diǎn)頭等動(dòng)作的活體視頻。這一能力能直接用于騙過(guò)人臉識(shí)別系統(tǒng),導(dǎo)致身份被冒用、財(cái)產(chǎn)被盜等嚴(yán)重?fù)p害。然而,這類由生成式人工智能帶來(lái)的新型個(gè)人信息侵害,目前還難以直接被前人工智能時(shí)代的刑法規(guī)范所規(guī)制。這導(dǎo)致在認(rèn)定侵犯公民個(gè)人信息罪時(shí)出現(xiàn)諸多困難,進(jìn)而造成個(gè)人信息刑法保護(hù)的實(shí)際失靈。此類問(wèn)題在“超授權(quán)用戶畫像”場(chǎng)景中尤為典型:生成式人工智能基于已授權(quán)信息,通過(guò)交叉分析推斷出未授權(quán)的個(gè)人信息。例如,通過(guò)分析用戶行蹤軌跡、停留時(shí)長(zhǎng)和地圖信息,可以推斷其工作單位、住址和生活習(xí)慣等不屬于初始授權(quán)范圍內(nèi)的信息。一旦此類超授權(quán)用戶畫像被大規(guī)模自動(dòng)化應(yīng)用,就可能出現(xiàn)大量未經(jīng)授權(quán)獲取個(gè)人信息的情形,進(jìn)而可能構(gòu)成刑法中的侵犯公民個(gè)人信息罪。然而,認(rèn)定該罪時(shí)基于刑法滯后性卻存在諸多爭(zhēng)議,例如,盡管用戶畫像生成的信息未經(jīng)授權(quán),但其源于內(nèi)部推斷而非外部非法轉(zhuǎn)讓,是否屬于“非法獲取”存疑;而對(duì)此類推斷信息的再次提供行為,是否構(gòu)成“非法提供”亦難以認(rèn)定。受生成式人工智能獨(dú)特運(yùn)行方式的影響,不僅侵犯公民個(gè)人信息罪的行為類型認(rèn)定困難,該罪在歸責(zé)主體、前置法規(guī)定、行為對(duì)象、因果關(guān)系等其他構(gòu)成要素方面也面臨全面適用困境。
(一)行為區(qū)分定性困難
當(dāng)前,作為個(gè)人信息專屬罪名的侵犯公民個(gè)人信息罪,在行為上僅涉及非法獲取或提供(含出售)個(gè)人信息的非法轉(zhuǎn)移型行為,并未涉及濫用、不當(dāng)加工等其他非法處理個(gè)人信息的行為類型。由于僅規(guī)制非法轉(zhuǎn)移型行為,侵犯公民個(gè)人信息罪的適用范圍相較于《中華人民共和國(guó)個(gè)人信息保護(hù)法》(以下簡(jiǎn)稱《個(gè)人信息保護(hù)法》)等前置法明顯限縮。后者還包括非法存儲(chǔ)、使用、加工、傳輸?shù)纫幌盗衅渌麄€(gè)人信息處理行為。在網(wǎng)絡(luò)時(shí)代初期,非法獲取、提供個(gè)人信息等轉(zhuǎn)移行為,與其他處理行為較易區(qū)分,該罪的行為認(rèn)定一般不存在困難。但隨著生成式人工智能的發(fā)展,其處理個(gè)人信息具有自主性與一體性特征,并不明確區(qū)分獲取、加工、使用等不同行為階段或類型,導(dǎo)致難以清晰界分非法轉(zhuǎn)移行為與使用、加工等其他處理行為,從而在認(rèn)定本罪行為時(shí)產(chǎn)生困境。如生成式人工智能挖掘生成個(gè)人信息的行為,同加工處理行為一體化,外在不涉及從他方轉(zhuǎn)讓,與傳統(tǒng)侵犯公民個(gè)人信息罪中“從他方獲取”的轉(zhuǎn)移型方式[2]存在明顯差異,能否將其認(rèn)定為該罪中的“非法獲取”行為存在爭(zhēng)議。如在英國(guó)DeepMind醫(yī)療數(shù)據(jù)糾紛案中,DeepMind作為人工智能,在處理個(gè)人信息時(shí)生成了遠(yuǎn)超原始醫(yī)療需求的大量病人數(shù)據(jù),難以判斷該行為構(gòu)成非法獲取數(shù)據(jù)還是正常的數(shù)據(jù)加工,從而產(chǎn)生是否侵害個(gè)人信息權(quán)益的爭(zhēng)議。
(二)主體歸責(zé)分配爭(zhēng)議
生成式人工智能存在侵害個(gè)人信息情形時(shí),往往在刑事責(zé)任問(wèn)題上引發(fā)應(yīng)歸屬于提供者還是使用者的爭(zhēng)議。在相關(guān)服務(wù)場(chǎng)景中,生成式人工智能的提供者是指擁有并部署該人工智能的平臺(tái),而使用者則指注冊(cè)并使用該平臺(tái)服務(wù)的不特定主體。生成式人工智能的預(yù)訓(xùn)練與內(nèi)容生成依賴四面八方的網(wǎng)絡(luò)數(shù)據(jù)交互,其運(yùn)行過(guò)程需要保持網(wǎng)絡(luò)開放。因此,與提供者相對(duì)固定不同,生成式人工智能的使用者具有多元、隨機(jī)和非固定的特征。
當(dāng)生成式人工智能在運(yùn)行中發(fā)生侵害個(gè)人信息的情形,例如,使用者濫用該技術(shù)挖掘生成他人未授權(quán)的信息時(shí),便產(chǎn)生刑事責(zé)任應(yīng)歸屬于使用者還是提供者的爭(zhēng)議。由于使用者的非固定性與隨機(jī)性,其與平臺(tái)之間通常缺乏共謀甚至意思聯(lián)絡(luò),不具備實(shí)施侵害個(gè)人信息行為的共同故意,因而難以依據(jù)共同犯罪原理進(jìn)行共同歸責(zé)。在非共犯情形下,行為主體的認(rèn)定直接決定刑事責(zé)任主體的確定。歸責(zé)問(wèn)題主要取決于誰(shuí)是生成式人工智能實(shí)行行為的歸屬主體,即在多元主體參與運(yùn)行的情況下,侵害個(gè)人信息的行為應(yīng)認(rèn)定為平臺(tái)的實(shí)行行為,還是使用者的實(shí)行行為。然而,在多方主體共同參與運(yùn)行的場(chǎng)景中,生成內(nèi)容與方向取決于平臺(tái)與使用者的互動(dòng)情況,難以判斷誰(shuí)的行為直接構(gòu)成造成侵害結(jié)果的實(shí)行行為,并應(yīng)承擔(dān)相應(yīng)的刑事責(zé)任。例如,在Clearview AI案中,Clearview利用抓取的200億公開圖片為用戶智能尋人而遭到多國(guó)調(diào)查,其辯稱用戶是非法獲取個(gè)人信息的責(zé)任承擔(dān)者,自己只是委托引導(dǎo)者,監(jiān)管部門則認(rèn)為其應(yīng)承擔(dān)責(zé)任,從而引發(fā)AI平臺(tái)是否擔(dān)責(zé)的爭(zhēng)議。
(三)前置法違反認(rèn)定缺失
侵犯公民個(gè)人信息罪屬于法定犯,其成立以“違反國(guó)家有關(guān)規(guī)定”這一要件為前提。盡管我國(guó)已形成以《個(gè)人信息保護(hù)法》為核心的個(gè)人信息保護(hù)法律體系為前置法,但針對(duì)生成式人工智能這類新生技術(shù)的具體規(guī)范仍相對(duì)欠缺。盡管我國(guó)出臺(tái)了《生成式人工智能服務(wù)管理暫行辦法》,但該辦法對(duì)個(gè)人信息保護(hù)的規(guī)定較為原則化,主要重申了《個(gè)人信息保護(hù)法》的基本要求,并未結(jié)合生成式人工智能的技術(shù)特點(diǎn)進(jìn)行具體規(guī)制,因而難以作為有效的刑法前置法依據(jù),來(lái)解決該場(chǎng)景下的法律認(rèn)定缺失問(wèn)題。具體而言,前置法認(rèn)定的困境體現(xiàn)在以下兩個(gè)層面。
在生成過(guò)程層面,智能處理個(gè)人信息的過(guò)程是否違反前置法存在判斷困境。當(dāng)前立法對(duì)生成式人工智能的復(fù)雜算法過(guò)程尚缺乏具體實(shí)質(zhì)的規(guī)范。雖然《個(gè)人信息保護(hù)法》第24條第3款對(duì)生成式人工智能所涉及的自動(dòng)化決策設(shè)有原則性規(guī)定,明確了涉及重大影響決定時(shí)個(gè)人的知情權(quán)與選擇權(quán),但這種相對(duì)概要的知情權(quán)與拒絕權(quán)的規(guī)定難以穿透生成式人工智能的技術(shù)壁壘與運(yùn)行黑箱而有效落實(shí)。因此,其處理過(guò)程是否合法仍缺乏清晰的判斷標(biāo)準(zhǔn),導(dǎo)致難以認(rèn)定是否“違反國(guó)家有關(guān)規(guī)定”。
在生成結(jié)果層面,生成式人工智能挖掘產(chǎn)生的個(gè)人信息結(jié)果是否“違反國(guó)家有關(guān)規(guī)定”,同樣難以認(rèn)定。當(dāng)前,生成式人工智能平臺(tái)在輸入端通常會(huì)遵循法定原則,通過(guò)授權(quán)協(xié)議等方式獲取用戶同意,滿足個(gè)人信息處理的合法性要求。然而,輸出端的個(gè)人信息結(jié)果是否必然合法尚存爭(zhēng)議。如前述DeepMind案所示,生成式人工智能基于合法獲取的體檢記錄、搜索歷史等數(shù)據(jù),推斷用戶潛在的疾病風(fēng)險(xiǎn)。此類推斷出的健康信息屬于敏感個(gè)人信息,但并未經(jīng)過(guò)信息主體的再次明確授權(quán)。這種智能挖掘生成的個(gè)人信息難以判定是否存在違反知情同意的非法性獲取。
(四)對(duì)象范圍邊界不清
刑法中侵犯公民個(gè)人信息罪的行為對(duì)象是個(gè)人信息,因此如何界定個(gè)人信息,直接關(guān)系到該罪能否成立,也決定了刑法保護(hù)的范圍。在生成式人工智能背景下,個(gè)人信息的認(rèn)定變得更為復(fù)雜和困難,這給個(gè)人信息犯罪的入罪邊界判斷帶來(lái)了新的挑戰(zhàn)。
作為本罪對(duì)象的“個(gè)人信息”,刑法并未直接界定,其內(nèi)涵主要參照《中華人民共和國(guó)民法典》(以下簡(jiǎn)稱《民法典》)《個(gè)人信息保護(hù)法》等前置法規(guī)定。無(wú)論是《民法典》第1034條第2款所強(qiáng)調(diào)的“可識(shí)別性”,還是《個(gè)人信息保護(hù)法》第4條第1款所側(cè)重的“關(guān)聯(lián)性”,兩部法律都采用了復(fù)合的個(gè)人信息界定模式,個(gè)人信息不僅包括能單獨(dú)識(shí)別特定自然人身份的信息(單獨(dú)識(shí)別型),也包括需要結(jié)合其他信息才能識(shí)別特定自然人的信息(結(jié)合識(shí)別型),后者在《個(gè)人信息保護(hù)法》上也表述為“可識(shí)別的自然人有關(guān)”。
在這兩類個(gè)人信息中,單獨(dú)識(shí)別型個(gè)人信息因僅涉及單一信息的性質(zhì)判斷,即便在生成式人工智能背景下也能相對(duì)清晰認(rèn)定。然而,結(jié)合識(shí)別型個(gè)人信息本身就需要綜合多項(xiàng)信息識(shí)別個(gè)人身份,且立法亦未明確“結(jié)合識(shí)別”的內(nèi)涵,標(biāo)準(zhǔn)本就模糊。生成式人工智能的強(qiáng)大算力極大增強(qiáng)了多信息融合處理能力,且不同應(yīng)用場(chǎng)景中識(shí)別范圍與方法差異顯著,進(jìn)一步模糊了此類信息邊界。這種依憑算力的“結(jié)合識(shí)別”能力遠(yuǎn)超普通人認(rèn)知水平,而技術(shù)壁壘與算法黑箱使外界難以理解其識(shí)別邏輯,從而對(duì)人工智能“結(jié)合識(shí)別”的信息定性困難。例如,傳統(tǒng)環(huán)境下零散的行為偏好數(shù)據(jù)(如特定音樂(lè)類型喜好)通常不被視為結(jié)合識(shí)別型個(gè)人信息。但生成式人工智能通過(guò)算力融合分析,將此類數(shù)據(jù)與其他信息精準(zhǔn)關(guān)聯(lián)到特定個(gè)人,從而使原本看似無(wú)涉?zhèn)€人的信息轉(zhuǎn)變?yōu)榉戏啥x的結(jié)合識(shí)別型個(gè)人信息。這一過(guò)程難以為普通用戶與司法人員所察覺(jué),導(dǎo)致刑事責(zé)任難以有效追究。
(五)因果關(guān)系判斷無(wú)力
雖然按照刑法規(guī)定與罪狀原理,侵犯公民個(gè)人信息罪是情節(jié)犯,未以構(gòu)成特定個(gè)人信息侵害結(jié)果為必要要件。然而按照最高人民法院、最高人民檢察院《關(guān)于辦理侵犯公民個(gè)人信息刑事案件適用法律若干問(wèn)題的解釋》(以下簡(jiǎn)稱《個(gè)人信息刑案解釋》),“情節(jié)嚴(yán)重”卻主要以特定結(jié)果為標(biāo)準(zhǔn),既包括了侵害數(shù)量維度的結(jié)果,也包括獲利金額維度的結(jié)果。在實(shí)踐中,依據(jù)侵害結(jié)果來(lái)認(rèn)定本罪的情形十分普遍。因此,行為與結(jié)果之間的因果關(guān)系,就成為刑法對(duì)侵犯?jìng)€(gè)人信息行為進(jìn)行定罪歸責(zé)的重要實(shí)踐基礎(chǔ)。然而生成式人工智能處理個(gè)人信息的場(chǎng)景下,由于其技術(shù)復(fù)雜性與運(yùn)行秘密性,行為與侵害結(jié)果之間的因果關(guān)系判斷面臨顯著難題。
一方面,技術(shù)壁壘與算法黑箱導(dǎo)致因果鏈條難以解釋和認(rèn)定。生成式人工智能的運(yùn)行機(jī)制與運(yùn)算邏輯極為復(fù)雜,本就難以被外界理解。即便處理行為與侵害結(jié)果之間可能存在因果關(guān)系,也難以進(jìn)行具體的解釋與認(rèn)定。以ChatGPT為代表的通用生成式人工智能具備高度自主學(xué)習(xí)的特質(zhì),即便是其提供方也無(wú)法完全掌控其運(yùn)行過(guò)程。這導(dǎo)致對(duì)其運(yùn)行與生成結(jié)果之間的因果邏輯進(jìn)行說(shuō)明極度困難,甚至超出了普通司法審查的能力范圍。另一方面,更為關(guān)鍵的是,生成式人工智能的技術(shù)內(nèi)核是基于高斯分布的概率相關(guān)性判斷,而非嚴(yán)格的因果性分析。其算法通常僅建立多個(gè)輸入因素之間的相關(guān)性生成通路即可輸出內(nèi)容,無(wú)須準(zhǔn)確區(qū)分因與果,也不具備追溯物理因果關(guān)聯(lián)的解釋能力。這種技術(shù)特性導(dǎo)致其處理行為與侵害結(jié)果之間欠缺堅(jiān)實(shí)的因果關(guān)聯(lián),從而使刑法上的因果關(guān)系論證面臨根本性挑戰(zhàn),嚴(yán)重影響了有效的刑事歸責(zé)。
三
基于生成式人工智能特質(zhì)的個(gè)人信息刑法規(guī)制模式轉(zhuǎn)型
生成式人工智能引發(fā)的個(gè)人信息刑法規(guī)制困境,典型地反映出技術(shù)飛速發(fā)展對(duì)既有法律規(guī)范帶來(lái)的適用挑戰(zhàn)。刑法中設(shè)立侵犯公民個(gè)人信息罪,本是為應(yīng)對(duì)網(wǎng)絡(luò)化進(jìn)程中日益嚴(yán)重的個(gè)人信息侵權(quán)問(wèn)題。但當(dāng)前以侵犯公民個(gè)人信息罪為核心的個(gè)人信息刑法規(guī)制模式,形成于生成式人工智能出現(xiàn)之前。該模式在確立時(shí),并未考慮生成式人工智能的運(yùn)行特征及其對(duì)個(gè)人信息處理帶來(lái)的全新影響,因而難以有效滿足生成式人工智能背景下的個(gè)人信息保護(hù)需求。因此,要解決生成式人工智能帶來(lái)的個(gè)人信息刑法規(guī)制困境,必須依據(jù)其處理個(gè)人信息的獨(dú)有特質(zhì),對(duì)侵犯公民個(gè)人信息罪的規(guī)制模式進(jìn)行相應(yīng)調(diào)整與更新,從而有效防范新型個(gè)人信息侵害風(fēng)險(xiǎn)。
(一)個(gè)人信息有限賦權(quán):刑法規(guī)制個(gè)人信息的初始模式
受刑法謙抑性與兜底性特征的約束,刑法上的法定犯一般設(shè)置于前置法規(guī)范之后,并以確認(rèn)和保障前置法所保護(hù)的法益為目的,刑法規(guī)范本身通常不具備獨(dú)立創(chuàng)設(shè)法益或直接賦權(quán)的功能。然而,刑法在增設(shè)個(gè)人信息犯罪時(shí)卻突破了上述原則,體現(xiàn)出“刑法先行”特質(zhì)下創(chuàng)設(shè)性賦權(quán)的獨(dú)特模式。
為應(yīng)對(duì)互聯(lián)網(wǎng)迅猛發(fā)展帶來(lái)的侵害個(gè)人信息的嚴(yán)重問(wèn)題,2009年2月28日公布施行的《中華人民共和國(guó)刑法修正案(七)》首次設(shè)立了個(gè)人信息專門犯罪,開創(chuàng)了專門保護(hù)個(gè)人信息的規(guī)范先例。當(dāng)然,對(duì)個(gè)人信息作出專門保護(hù)性規(guī)定,并不簡(jiǎn)單地等同于對(duì)個(gè)人信息進(jìn)行專門賦權(quán)。自刑法設(shè)立個(gè)人信息犯罪以來(lái),關(guān)于本罪所保護(hù)的法益一直存在多種觀點(diǎn)。既有以“個(gè)人信息自決權(quán)”為代表的個(gè)人法益觀,也有以“信息安全與信息管理秩序”為代表的社會(huì)法益觀等。其中,社會(huì)法益觀立足于公共法益,不認(rèn)同刑法對(duì)個(gè)人信息具有賦權(quán)功能。然而,從該罪被歸入侵犯公民人身權(quán)利類犯罪來(lái)看,其保護(hù)法益應(yīng)被定位于個(gè)人信息權(quán)益,首要規(guī)范目的并非單純的信息安全或管理秩序。《個(gè)人信息刑案解釋》對(duì)“情節(jié)嚴(yán)重”的規(guī)定也印證了這一點(diǎn),該解釋的判斷標(biāo)準(zhǔn)側(cè)重于侵害個(gè)人信息權(quán)益所造成的實(shí)害結(jié)果,而非對(duì)信息管理秩序的破壞。另有觀點(diǎn)認(rèn)為,即便承認(rèn)本罪保護(hù)的是個(gè)人權(quán)益,也只是將其視為對(duì)通信自由、隱私安寧等傳統(tǒng)權(quán)益的保護(hù),并未創(chuàng)設(shè)獨(dú)立的個(gè)人信息權(quán)益。但從該罪與通信自由、隱私安寧類犯罪分別設(shè)立,并將保護(hù)對(duì)象明確為“個(gè)人信息”的立法模式來(lái)看,其規(guī)范目的有意將個(gè)人信息權(quán)益與隱私權(quán)等其他權(quán)益相區(qū)分,表明本罪在規(guī)范目的上將個(gè)人信息權(quán)益作為一種區(qū)別于通信自由與隱私安寧的獨(dú)立法益加以保護(hù)。
由此可見,刑法通過(guò)增設(shè)個(gè)人信息犯罪,首次在規(guī)范層面確認(rèn)了個(gè)人信息權(quán)益的獨(dú)立地位,對(duì)個(gè)人信息權(quán)益首次進(jìn)行了正式賦權(quán),這一確認(rèn)的時(shí)間要遠(yuǎn)遠(yuǎn)早于其他法律規(guī)范對(duì)個(gè)人信息權(quán)益的首次明確規(guī)定。因此,可以說(shuō)刑法形成了對(duì)個(gè)人信息專門賦權(quán)的保護(hù)模式。不過(guò),刑法將個(gè)人信息犯罪行為限定于非法獲取、提供等轉(zhuǎn)移型行為,不包括非法濫用等行為,表明其僅保護(hù)個(gè)人信息的轉(zhuǎn)移自主權(quán),屬于局部有限賦權(quán)。這一局部賦權(quán)范圍,相較于后來(lái)《民法典》與《個(gè)人信息保護(hù)法》所確立的包括使用、加工、刪除等在內(nèi)的廣泛個(gè)人信息權(quán)益而言非常局限。當(dāng)然,在網(wǎng)絡(luò)時(shí)代初期,個(gè)人信息侵害主要表現(xiàn)為非法轉(zhuǎn)移行為,刑法的有限賦權(quán)模式有效遏制了此類行為的泛濫,確立了個(gè)人信息權(quán)益的法律保護(hù)地位。這一做法將犯罪范圍限定于最需刑法介入的領(lǐng)域,符合刑法作為最后手段的定位,體現(xiàn)了立法的必要性與謙抑性。
(二)轉(zhuǎn)向場(chǎng)景治理模式:基于生成式人工智能的個(gè)人信息規(guī)制原理
隨著生成式人工智能的廣泛應(yīng)用部署,刑法作為個(gè)人信息保護(hù)的底線規(guī)范,亟須將其新型風(fēng)險(xiǎn)納入規(guī)制范圍。然而,現(xiàn)行刑法采用的“有限賦權(quán)”模式與生成式人工智能的技術(shù)特性存在明顯的沖突,亟待構(gòu)建新型治理范式。生成式人工智能處理個(gè)人信息的鮮明特征是基于不同主體與情境進(jìn)行交互定制與自主生成,即體現(xiàn)高度場(chǎng)景化的運(yùn)行特質(zhì)。
所謂場(chǎng)景化,是指在此情形下個(gè)人信息處理遵循動(dòng)態(tài)演變的場(chǎng)景論原理,不再依賴無(wú)差別的抽象預(yù)設(shè)邏輯,而需要解耦不同場(chǎng)景中信息流轉(zhuǎn)與應(yīng)用的變化關(guān)系,并建立分場(chǎng)景適配的治理體系。與傳統(tǒng)處理方式不同,生成式人工智能通過(guò)自主抓取和定制交互實(shí)現(xiàn)個(gè)人信息的泛在化處理。生成式人工智能處理個(gè)人信息的新形式,打破了傳統(tǒng)“獲取—加工—提供”的分段式生命周期,轉(zhuǎn)向一體式、定制式與關(guān)聯(lián)式的信息挖掘模式。其處理結(jié)果也因主體、對(duì)象和需求的不同而呈現(xiàn)差異,具體表現(xiàn)為三個(gè)特征:一是一體式特征。生成式人工智能在復(fù)雜場(chǎng)景交互中打亂了個(gè)人信息處理的固有順序,難以清晰區(qū)分獲取、加工、提供等具體行為階段。二是定制式特征。不同場(chǎng)景下的個(gè)人信息處理需求與表達(dá)方式各異,無(wú)法遵循統(tǒng)一預(yù)設(shè)的運(yùn)行規(guī)則與標(biāo)準(zhǔn)。三是關(guān)聯(lián)式特征。處理過(guò)程超越線性因果關(guān)系,生成結(jié)果只能在特定場(chǎng)景中通過(guò)關(guān)聯(lián)性加以理解,而難以進(jìn)行因果性解釋。上述三個(gè)特質(zhì)已超出刑法傳統(tǒng)“有限賦權(quán)”規(guī)制模式的涵蓋范圍,導(dǎo)致現(xiàn)有模式難以有效防范生成式人工智能帶來(lái)的特殊侵害風(fēng)險(xiǎn),進(jìn)而造成司法認(rèn)定中的諸多困境。因此,個(gè)人信息刑法規(guī)制應(yīng)基于生成式人工智能的場(chǎng)景化特質(zhì),逐步向場(chǎng)景治理模式轉(zhuǎn)型。
首先,有限賦權(quán)模式難以解決生成式人工智能“一體式”特征帶來(lái)的侵害行為復(fù)雜化問(wèn)題,應(yīng)基于場(chǎng)景治理模式,調(diào)整個(gè)人信息犯罪行為認(rèn)定標(biāo)準(zhǔn)。生成式人工智能在場(chǎng)景化處理信息時(shí),并不明確區(qū)分獲取、加工、使用、公開等環(huán)節(jié),而是以“一體式”的方式將多個(gè)處理步驟整合于同一流程中,從而形成使用、加工與轉(zhuǎn)讓等行為同時(shí)交錯(cuò)運(yùn)行復(fù)合行為場(chǎng)景。這導(dǎo)致難以從中準(zhǔn)確識(shí)別出符合本罪構(gòu)成要件的“轉(zhuǎn)移型行為”。以智能寫作助手為例,該工具在為用戶潤(rùn)色文稿時(shí),會(huì)同步分析用戶的寫作習(xí)慣、專業(yè)領(lǐng)域知識(shí)結(jié)構(gòu),甚至思維模式特征。這一過(guò)程融合了對(duì)個(gè)人信息的實(shí)時(shí)獲取、深度分析和創(chuàng)造性使用,最終生成的新內(nèi)容可能隱含新的加工后的個(gè)人信息。此類復(fù)合處理行為是否構(gòu)成本罪轉(zhuǎn)移型行為,在現(xiàn)行規(guī)制模式下難以明確判斷。轉(zhuǎn)向場(chǎng)景治理模式,則能夠針對(duì)一體式特征帶來(lái)的行為區(qū)分困境,將技術(shù)維度的場(chǎng)景化下的行為認(rèn)定需求嵌入刑法原理,回溯映照刑法適用中的行為歸責(zé)判斷理論,從法益侵害論的意義上回歸法益危險(xiǎn)的行為判斷基準(zhǔn)。
其次,有限賦權(quán)模式的無(wú)差別保護(hù)邏輯難以應(yīng)對(duì)生成式人工智能“定制式”特征帶來(lái)的侵害對(duì)象差異化問(wèn)題,需要在場(chǎng)景治理框架下實(shí)現(xiàn)個(gè)人信息犯罪對(duì)象的類型化保護(hù)。生成式人工智能在場(chǎng)景化處理個(gè)人信息時(shí),會(huì)結(jié)合輸入端信息特征與應(yīng)用端具體需求進(jìn)行定制化處理,從而對(duì)不同主體產(chǎn)生差異化的處理結(jié)果。在此情況下,若僅采取原則性的一般賦權(quán)保護(hù)模式,容易忽視不同場(chǎng)景下的具體保護(hù)需求差異,可能導(dǎo)致定罪量刑的不合理。因此,需要轉(zhuǎn)向場(chǎng)景治理模式,根據(jù)不同類型場(chǎng)景中個(gè)人信息的保護(hù)需求進(jìn)行差異化治理,將場(chǎng)景化的保護(hù)需求與刑法規(guī)制的類型化要求相嵌合,實(shí)現(xiàn)對(duì)個(gè)人信息對(duì)象的分類保護(hù)。值得借鑒的是,作為刑法前置法的《民法典》與《個(gè)人信息保護(hù)法》均已建立個(gè)人信息分類保護(hù)機(jī)制,通過(guò)區(qū)分私密信息與非私密信息、敏感個(gè)人信息與一般個(gè)人信息等類型,實(shí)現(xiàn)了差別化、分層級(jí)的權(quán)益保護(hù)模式。這種分類保護(hù)思路更能適應(yīng)生成式人工智能帶來(lái)的場(chǎng)景化保護(hù)需求,可為侵犯公民個(gè)人信息罪的對(duì)象認(rèn)定提供參考。
最后,有限賦權(quán)模式難以應(yīng)對(duì)生成式人工智能“關(guān)聯(lián)式”特征帶來(lái)的侵害后果無(wú)因化問(wèn)題,需依據(jù)場(chǎng)景治理思維,探索個(gè)人信息因果認(rèn)定的替代標(biāo)準(zhǔn)。生成式人工智能在場(chǎng)景化處理信息時(shí),依賴的是相關(guān)性分析,而非因果性邏輯。該方法僅關(guān)注要素間的伴生概率,不探究實(shí)在的因果聯(lián)系,導(dǎo)致特定結(jié)果呈現(xiàn)“無(wú)因化”特征。面對(duì)這一挑戰(zhàn),刑法規(guī)制需轉(zhuǎn)向場(chǎng)景治理模式,將關(guān)聯(lián)式邏輯與刑法原理相融合,構(gòu)建與之相適應(yīng)的因果認(rèn)定替代標(biāo)準(zhǔn):第一,針對(duì)實(shí)在因果關(guān)系判斷的困境,可引入刑法中的規(guī)范因果關(guān)系路徑。刑法理論已針對(duì)不作為犯等復(fù)雜情形發(fā)展出以歸責(zé)為核心的規(guī)范因果判斷路徑。借鑒這一思路,可有效化解關(guān)聯(lián)式邏輯下的歸因難題。第二,可借鑒《個(gè)人信息保護(hù)法》的義務(wù)違反追責(zé)模式,運(yùn)用刑法義務(wù)犯原理設(shè)定專門標(biāo)準(zhǔn),從而規(guī)避因果關(guān)系的認(rèn)定難題。
綜上可見,要解決生成式人工智能場(chǎng)景化特征引發(fā)的侵害行為復(fù)雜化、對(duì)象差別化及后果無(wú)因化等問(wèn)題,應(yīng)推動(dòng)刑法從有限賦權(quán)模式向場(chǎng)景治理模式轉(zhuǎn)變,構(gòu)建個(gè)人信息犯罪的場(chǎng)景化認(rèn)定路徑。
四
場(chǎng)景治理模式下個(gè)人信息刑法歸責(zé)的路徑展開
因應(yīng)生成式人工智能運(yùn)行場(chǎng)景化的特點(diǎn),個(gè)人信息刑法保護(hù)模式應(yīng)從有限賦權(quán)轉(zhuǎn)向場(chǎng)景治理。具體而言,應(yīng)根據(jù)其定制式、一體式、關(guān)聯(lián)式的信息處理特征,更新侵犯公民個(gè)人信息罪的歸責(zé)路徑,明確該罪在生成式人工智能背景下的適用邊界,以解決當(dāng)前面臨的認(rèn)定困境。這一規(guī)制模式的轉(zhuǎn)型,并不必然要求修改立法。由于侵犯公民個(gè)人信息罪采用“情節(jié)犯”的立法模式,其“情節(jié)嚴(yán)重”這一入罪標(biāo)準(zhǔn)具有解釋上的靈活性,能夠適應(yīng)不同規(guī)制模式的歸責(zé)需求。因此,只需在司法適用中調(diào)整認(rèn)定標(biāo)準(zhǔn),即可有效貫徹場(chǎng)景化治理理念。基于此,針對(duì)生成式人工智能處理個(gè)人信息的特點(diǎn),可通過(guò)完善個(gè)人信息犯罪的歸責(zé)路徑來(lái)落實(shí)場(chǎng)景治理模式,從而有效解決由此產(chǎn)生的刑事認(rèn)定難題。
(一)以個(gè)人信息的非法轉(zhuǎn)移危險(xiǎn)現(xiàn)實(shí)化作為行為判斷路徑
1.針對(duì)人工智能一體式特征的侵害危險(xiǎn)現(xiàn)實(shí)化歸責(zé)基準(zhǔn)
在生成式人工智能場(chǎng)景化運(yùn)行特征下,個(gè)人信息處理呈現(xiàn)行為一體化特質(zhì),改變了傳統(tǒng)侵害方式“先轉(zhuǎn)移、后濫用”的單向發(fā)生模式。生成式人工智能在運(yùn)行中將信息的轉(zhuǎn)移、使用、加工等行為復(fù)合實(shí)施,各行為間既難以明確區(qū)分,也不存在清晰的先后順序,導(dǎo)致直接認(rèn)定非法轉(zhuǎn)移行為面臨困難。
針對(duì)這一困境,較為理想的解決方案是通過(guò)立法擴(kuò)展本罪的行為類型,將非法加工、濫用、傳輸?shù)犬?dāng)前未納入規(guī)制的處理行為一并納入,從根本上改變僅處罰轉(zhuǎn)移行為而不規(guī)制濫用加工行為的局限。在立法尚未修改的情況下,當(dāng)行為與主體認(rèn)定存在困難時(shí),可根據(jù)本罪的規(guī)范保護(hù)目的,運(yùn)用“危險(xiǎn)現(xiàn)實(shí)化”原理進(jìn)行判斷。根據(jù)這一原理,無(wú)論采用何種規(guī)制模式,侵犯公民個(gè)人信息罪的規(guī)范保護(hù)目的都是遏制和防范對(duì)個(gè)人信息的侵害危險(xiǎn)。由于法益危險(xiǎn)是可以評(píng)價(jià)的行為的外在表現(xiàn),即使生成式人工智能的一體化行為性質(zhì)難以直接認(rèn)定,仍可外在通過(guò)其運(yùn)行對(duì)個(gè)人信息造成的實(shí)質(zhì)危險(xiǎn)來(lái)評(píng)判行為屬性。通過(guò)考察具體處理情境是否造成非法轉(zhuǎn)移個(gè)人信息的風(fēng)險(xiǎn),可以有效解決因行為一體化帶來(lái)的認(rèn)定難題,使危險(xiǎn)現(xiàn)實(shí)化成為適應(yīng)生成式人工智能特質(zhì)的行為認(rèn)定路徑。
2.以危險(xiǎn)現(xiàn)實(shí)化基準(zhǔn)認(rèn)定侵犯公民個(gè)人信息罪行為
根據(jù)危險(xiǎn)現(xiàn)實(shí)化原理的邏輯,侵犯公民個(gè)人信息罪的非法獲取、出售與提供個(gè)人信息的行為,本質(zhì)上都是將個(gè)人信息非法轉(zhuǎn)移的危險(xiǎn)現(xiàn)實(shí)化的具體表現(xiàn)。因此,是否生成并實(shí)現(xiàn)非法轉(zhuǎn)移個(gè)人信息的危險(xiǎn),可以作為判定該罪行為是否成立的重要標(biāo)準(zhǔn)。在生成式人工智能背景下,針對(duì)信息轉(zhuǎn)移與加工使用行為高度一體化,可根據(jù)危險(xiǎn)現(xiàn)實(shí)化原理,審查具體行為是否生成并實(shí)現(xiàn)了個(gè)人信息非法轉(zhuǎn)移的危險(xiǎn),以此為歸責(zé)基準(zhǔn)。
規(guī)范意義上的非法轉(zhuǎn)移危險(xiǎn)現(xiàn)實(shí)化應(yīng)包含雙重判斷基準(zhǔn):第一,個(gè)人信息轉(zhuǎn)移危險(xiǎn)的非法性判斷。這是判斷轉(zhuǎn)移危險(xiǎn)存在的前提。以《個(gè)人信息保護(hù)法》《民法典》等規(guī)定為依據(jù),若處理個(gè)人信息時(shí)違反相關(guān)法律法規(guī),即符合非法性標(biāo)準(zhǔn)。生成式人工智能的交互式運(yùn)行特點(diǎn)使其難以在事前授權(quán)中明確列舉所有處理事項(xiàng),較難完全符合明示處理和具體知情同意的要求,故較易具備非法性特征。第二,個(gè)人信息轉(zhuǎn)移危險(xiǎn)的具體實(shí)現(xiàn)判斷。在確認(rèn)非法性的基礎(chǔ)上,還需判斷是否產(chǎn)生了個(gè)人信息的具體流轉(zhuǎn)后果。即使無(wú)法從一體化行為中分析出具體的轉(zhuǎn)移行為,也可以通過(guò)處理結(jié)果判斷轉(zhuǎn)移危險(xiǎn)是否現(xiàn)實(shí)化,造成了個(gè)人信息的實(shí)質(zhì)危害。在前述Deepmind的案件中,Deepmind在處理個(gè)人信息時(shí),未能完全符合英國(guó)醫(yī)療數(shù)據(jù)的使用指引規(guī)定,從而具有一定的非法性,且其深度挖掘了醫(yī)療數(shù)據(jù),獲取了一系列用戶未授權(quán)的醫(yī)療個(gè)人信息,并用于人工智能訓(xùn)練與其他應(yīng)用,因此造成了對(duì)未授權(quán)個(gè)人信息的實(shí)質(zhì)危害,因此構(gòu)成非法轉(zhuǎn)移危險(xiǎn)的現(xiàn)實(shí)化,侵害了個(gè)人信息權(quán)益。
(二)以個(gè)人信息侵害危險(xiǎn)的作用力作為主體歸責(zé)路徑
如前所述,生成式人工智能運(yùn)行中參與主體的多元化,導(dǎo)致了侵犯公民個(gè)人信息罪在歸責(zé)主體認(rèn)定上的困境。同時(shí),行為一體化的特點(diǎn)也使其難以將處理過(guò)程割裂并分別歸責(zé)于不同主體。例如,不能因平臺(tái)控制人工智能僅實(shí)施了加工個(gè)人信息行為,就認(rèn)定其未有轉(zhuǎn)移型行為,從而不承擔(dān)本罪責(zé)任,也不能因特定用戶向人工智能泄露了第三者的個(gè)人信息就簡(jiǎn)單認(rèn)定為僅特定用戶承擔(dān)本罪責(zé)任。實(shí)際上,生成式人工智能的運(yùn)行由平臺(tái)與使用者交互推動(dòng),僅從行為表現(xiàn)難以明確區(qū)分責(zé)任歸屬。在此情況下,可基于不同主體對(duì)個(gè)人信息侵害“危險(xiǎn)現(xiàn)實(shí)化”的作用力來(lái)判斷歸責(zé)。
具體而言,應(yīng)以各方對(duì)非法獲取或提供個(gè)人信息這一危險(xiǎn)的參與程度或推動(dòng)作用為依據(jù),未對(duì)危險(xiǎn)現(xiàn)實(shí)化起到推動(dòng)作用的主體不應(yīng)歸責(zé)。
一是當(dāng)生成式人工智能平臺(tái)與使用者共同推動(dòng)個(gè)人信息的轉(zhuǎn)移危險(xiǎn)現(xiàn)實(shí)化時(shí),平臺(tái)與使用者都應(yīng)當(dāng)予以歸責(zé)。若雙方均對(duì)個(gè)人信息非法轉(zhuǎn)移危險(xiǎn)的實(shí)現(xiàn)起到推動(dòng)作用,即使參與時(shí)間和方式不同,也應(yīng)共同承擔(dān)刑事責(zé)任。如使用者任意提供了非法獲取的他人信息,平臺(tái)未經(jīng)審查就按照使用者要求加工處理了他人的信息,只能認(rèn)定為平臺(tái)與該使用者都是造成個(gè)人信息危險(xiǎn)的行為主體,生成式人工智能的運(yùn)行是二者實(shí)行行為的共同展開。例如前述Clearview的案例中,如果用戶提供了自己非法獲取的他人肖像信息用于尋人,而Clearview運(yùn)用抓取的圖片幫助用戶得到了新的他人個(gè)人信息,那么二者行為共同促成了侵害個(gè)人信息危險(xiǎn)的現(xiàn)實(shí)化,應(yīng)當(dāng)都予以歸責(zé)。二是個(gè)人信息的轉(zhuǎn)移危險(xiǎn)現(xiàn)實(shí)化僅由生成式人工智能的使用者促成,應(yīng)單獨(dú)歸責(zé)于使用者。在生成式人工智能的交互運(yùn)行中,非法轉(zhuǎn)移個(gè)人信息的危險(xiǎn)生成與實(shí)現(xiàn)都是使用者促成的,平臺(tái)并未推動(dòng)侵犯?jìng)€(gè)人信息的危險(xiǎn)實(shí)現(xiàn),若平臺(tái)已履行合規(guī)審查義務(wù),但因使用者欺瞞未能發(fā)現(xiàn)信息的非法來(lái)源與使用狀態(tài),則平臺(tái)未實(shí)際推動(dòng)危險(xiǎn)實(shí)現(xiàn),不應(yīng)歸責(zé)。前述Clearview案例中,如果該AI自動(dòng)對(duì)用戶履行其提供的個(gè)人信息合規(guī)審查義務(wù),則不應(yīng)予以歸責(zé),但其實(shí)際上完全放任用戶提供非法個(gè)人信息并予以加工擴(kuò)張范圍,是對(duì)個(gè)人信息危險(xiǎn)加以現(xiàn)實(shí)化,因此應(yīng)予以歸責(zé)。三是在生成式人工智能運(yùn)行中轉(zhuǎn)移個(gè)人信息的危險(xiǎn)現(xiàn)實(shí)化是由平臺(tái)生成并推動(dòng)實(shí)現(xiàn)的,用戶并未起到推動(dòng)作用,則應(yīng)對(duì)平臺(tái)進(jìn)行歸責(zé)。如平臺(tái)在進(jìn)行生成式人工智能MaaS(模型即服務(wù))應(yīng)用時(shí),對(duì)其他使用者提供的個(gè)人信息未履行再告知義務(wù)而是直接使用,從而造成了個(gè)人信息的非法轉(zhuǎn)移危險(xiǎn),應(yīng)予以歸責(zé)。而MaaS的使用者則由于僅使用智能模型,并未參與個(gè)人信息的直接處理,未推動(dòng)危險(xiǎn)的形成,因此不應(yīng)予以歸責(zé)。
(三)以個(gè)人信息類型化作為違反前置法的認(rèn)定路徑
針對(duì)生成式人工智能定制式處理個(gè)人信息可能帶來(lái)的違法判定差異問(wèn)題,應(yīng)形成類型化的歸責(zé)路徑。雖然生成式人工智能通常涉及大規(guī)模處理信息,但其場(chǎng)景化、定制式的特質(zhì)導(dǎo)致不同場(chǎng)景中受到侵害的信息主體與種類存在顯著差異。這種顯著差異在大規(guī)模聚合下會(huì)表現(xiàn)為對(duì)不同主體與內(nèi)容的個(gè)人信息的類型化侵害,如歸屬主體類型上可能既有對(duì)未成年人個(gè)人信息的侵害,也有對(duì)成年人個(gè)人信息的侵害;內(nèi)容上既有對(duì)私密個(gè)人信息或敏感個(gè)人信息的侵害,也有對(duì)一般個(gè)人信息的侵害。而不同歸屬主體與內(nèi)容的個(gè)人信息所對(duì)應(yīng)的規(guī)范保護(hù)需求也千差萬(wàn)別,如果不考慮到這種差別而采取單一標(biāo)準(zhǔn)入罪,就必然會(huì)導(dǎo)致前述對(duì)個(gè)人信息保護(hù)的不周延甚或失效。因此應(yīng)根據(jù)不同的個(gè)人信息類型及其保護(hù)需求的差異化,明確侵犯公民個(gè)人信息罪類型化的違法判斷標(biāo)準(zhǔn)。
為保障法秩序的統(tǒng)一性,應(yīng)優(yōu)先根據(jù)前置法對(duì)個(gè)人信息的法定分類明確侵犯公民個(gè)人信息罪的違法性類型化標(biāo)準(zhǔn)。例如,可以根據(jù)《個(gè)人信息保護(hù)法》中就保護(hù)重要程度的分類,對(duì)具有優(yōu)先保護(hù)性的敏感個(gè)人信息賦予相對(duì)于一般個(gè)人信息更低的入罪門檻,這是因?yàn)槊舾袀€(gè)人信息一旦遭受侵害,更容易帶來(lái)人身財(cái)產(chǎn)等重大危險(xiǎn),造成的危險(xiǎn)現(xiàn)實(shí)化后果更為嚴(yán)重,所以應(yīng)設(shè)置更低的違法性判斷門檻。《個(gè)人信息刑案解釋》在“情節(jié)嚴(yán)重”的認(rèn)定中已經(jīng)體現(xiàn)了一定程度的分類邏輯,根據(jù)需受保護(hù)程度確定了三種不同類型個(gè)人信息的量化標(biāo)準(zhǔn),符合分類保護(hù)的原則;但是相較于《個(gè)人信息保護(hù)法》與《民法典》的系統(tǒng)性類型化規(guī)定,《個(gè)人信息刑案解釋》僅對(duì)部分敏感個(gè)人信息做了列舉式分類,從而不夠周延,未來(lái)可以按照《個(gè)人信息保護(hù)法》和《民法典》的規(guī)定,進(jìn)一步完善違反前置法的類型化認(rèn)定體系。
由此,根據(jù)敏感個(gè)人信息與一般個(gè)人信息的分類保護(hù)原則,前者作為《個(gè)人信息保護(hù)法》中通過(guò)特殊規(guī)定而強(qiáng)化保護(hù)的類型與后者存在明顯的規(guī)定差異,因此在確定是否“違反國(guó)家規(guī)定”時(shí)應(yīng)明確確立不同的場(chǎng)景標(biāo)準(zhǔn):如果所涉?zhèn)€人信息屬于敏感個(gè)人信息,則根據(jù)《個(gè)人信息保護(hù)法》的規(guī)定,需在違法性判斷中識(shí)別信息保護(hù)目的與必要性、保密手段性,以及單獨(dú)同意告知等特殊法定要求是否得到滿足。如果生成式人工智能挖掘的敏感個(gè)人信息未經(jīng)過(guò)單獨(dú)、具體的授權(quán)同意,也未對(duì)個(gè)人進(jìn)行告知,就違反了《個(gè)人信息保護(hù)法》的特殊保護(hù)規(guī)定。即便用于加工源頭的個(gè)人信息已經(jīng)獲得授權(quán),也不當(dāng)然就保證加工處理后得出的敏感個(gè)人信息的合法性。例如,在智能心理咨詢場(chǎng)景中,生成式人工智能通過(guò)分析用戶的語(yǔ)言表達(dá)習(xí)慣、社交互動(dòng)模式等數(shù)據(jù),推斷出該用戶未明確授權(quán)的心理健康狀態(tài)或病史等敏感個(gè)人信息,這意味著用戶的個(gè)人敏感心理信息已從其個(gè)人控制范圍向人工智能平臺(tái)轉(zhuǎn)移。如果這一涉及心理健康的敏感個(gè)人信息未在用戶直接授權(quán)的范圍之內(nèi),且后續(xù)也未向該用戶獲取同意轉(zhuǎn)讓許可,則即便源頭的表達(dá)習(xí)慣等一般個(gè)人信息屬于合法授權(quán),仍然構(gòu)成了對(duì)前置法的違反。而如果生成式人工智能挖掘的個(gè)人信息是一般個(gè)人信息,則可以基于源頭信息的采集端告知授權(quán)而取得合法性,除非后續(xù)又對(duì)這些信息有其他非法處理行為,否則取得個(gè)人信息的行為應(yīng)該被視為合法有效。
(四)以“結(jié)合識(shí)別”目標(biāo)作為個(gè)人信息對(duì)象界分路徑
如前所述,生成式人工智能顯著擴(kuò)展了個(gè)人信息的認(rèn)定范圍,以往難以通過(guò)“結(jié)合識(shí)別”確定身份的信息,在其強(qiáng)大算力下也可能符合個(gè)人信息定義,從而成為侵犯公民個(gè)人信息罪的規(guī)制對(duì)象。但由于在不同的生成式人工智能場(chǎng)景下,這種“結(jié)合識(shí)別”的過(guò)程與邏輯各異,難以在技術(shù)體系內(nèi)部形成統(tǒng)一的判斷標(biāo)準(zhǔn)。因此,要判斷特定生成信息是否屬于個(gè)人信息時(shí),可以根據(jù)人工智能用于結(jié)合識(shí)別的目標(biāo)信息屬性來(lái)確立“結(jié)合識(shí)別”型個(gè)人信息的認(rèn)定邊界。
如果生成式人工智能處理特定信息旨在通過(guò)“結(jié)合識(shí)別”這些信息以生成敏感個(gè)人信息,則出于作為目標(biāo)信息的敏感個(gè)人信息的優(yōu)先保護(hù)需求,采用嚴(yán)格的“場(chǎng)景可能性”規(guī)則:只要經(jīng)生成式人工智能處理,存在通過(guò)處理該信息識(shí)別出特定自然人敏感個(gè)人信息的可能,該特定信息就應(yīng)該納入個(gè)人信息的范圍,可以被追究刑事責(zé)任,以實(shí)現(xiàn)對(duì)敏感個(gè)人信息的強(qiáng)化保護(hù)。反之,如果生成式人工智能處理特定信息是為了“結(jié)合識(shí)別”一般個(gè)人信息,則在對(duì)特定信息是否“結(jié)合識(shí)別”型個(gè)人信息的判斷上可以采用限縮式的“場(chǎng)景實(shí)然性”標(biāo)準(zhǔn):在采集端首先考察用于結(jié)合識(shí)別的特定信息是否具備獨(dú)立的個(gè)人信息屬性,若相關(guān)特定信息均不具備單獨(dú)識(shí)別性,且這些信息在實(shí)際情況下從未實(shí)現(xiàn)身份識(shí)別,則可不認(rèn)定其為個(gè)人信息。
(五)以規(guī)范性因果與義務(wù)違反作為因果關(guān)系紓解路徑
1.因果關(guān)系內(nèi)部基于規(guī)范性因果的歸責(zé)基準(zhǔn)
為解決生成式人工智能背景下侵犯公民個(gè)人信息罪的因果關(guān)系判斷難題,需構(gòu)建超越傳統(tǒng)事實(shí)因果的特殊因果關(guān)系認(rèn)定規(guī)則。在事實(shí)因果關(guān)系層面,條件說(shuō)作為基本判斷規(guī)則,經(jīng)常面對(duì)諸多挑戰(zhàn)。刑法理論發(fā)展中形成的擇一因果關(guān)系、疫學(xué)因果關(guān)系等特殊規(guī)則,正是條件說(shuō)適用困難而產(chǎn)生的特定解決方案。有觀點(diǎn)主張?jiān)谏墒饺斯ぶ悄軋?chǎng)景中采用統(tǒng)計(jì)學(xué)上的高概率性作為因果判斷標(biāo)準(zhǔn),但由于技術(shù)壁壘與算法黑箱的存在,這種概率性判斷在生成式人工智能背景下面臨較高的技術(shù)門檻與認(rèn)知障礙,難以實(shí)際運(yùn)用。單純基于存在論的解決路徑,均難以突破生成式人工智能在事實(shí)層面的非因果律表征局限。因此,需要超越存在論層面的事實(shí)歸因判斷,轉(zhuǎn)向規(guī)范論層面的因果關(guān)系歸責(zé)認(rèn)定,為生成式人工智能場(chǎng)景下的因果判斷提供相對(duì)確定性的規(guī)范標(biāo)準(zhǔn)。
規(guī)范性因果關(guān)系判斷以規(guī)范論的視角判斷規(guī)范,違反行為與危害后果之間的關(guān)聯(lián),因此無(wú)須探究生成式人工智能內(nèi)在復(fù)雜的運(yùn)行邏輯,只需要從外部評(píng)估生成式人工智能對(duì)規(guī)范的違反程度與后果即可在規(guī)范意義上推定或擬制因果關(guān)系的成立。基于規(guī)范判斷的客觀歸責(zé)原理,可以將侵害個(gè)人信息危險(xiǎn)的生成與實(shí)現(xiàn)作為因果關(guān)系的判斷基準(zhǔn)。首先,在危險(xiǎn)生成層面,可以根據(jù)“法所不容危險(xiǎn)”標(biāo)準(zhǔn),判斷生成式人工智能處理個(gè)人信息的行為是否違反個(gè)人信息與人工智能等前置法的規(guī)定,產(chǎn)生了侵害個(gè)人信息的違法性風(fēng)險(xiǎn)。這是確認(rèn)因果的前置條件。其次,在危險(xiǎn)實(shí)現(xiàn)層面,可以根據(jù)人工智能生成內(nèi)容是否存在對(duì)個(gè)人信息的侵害結(jié)果,以及這一結(jié)果是否在前述危險(xiǎn)范圍之內(nèi),以明確危險(xiǎn)是否實(shí)現(xiàn)。最后,在歸屬層面,需要判斷個(gè)人信息的侵害結(jié)果不歸屬于他方負(fù)責(zé)的行為范圍,最終確認(rèn)因果關(guān)系。例如,在消費(fèi)偏好的人工智能分析場(chǎng)景中,若AI超出約定用途使用個(gè)人消費(fèi)記錄信息,即產(chǎn)生個(gè)人信息侵害危險(xiǎn);若由此推斷出未授權(quán)的個(gè)人收入水平等敏感信息內(nèi)容,且涉及重大人身、財(cái)產(chǎn)利益,則危險(xiǎn)可認(rèn)定為已實(shí)現(xiàn)。而進(jìn)一步在歸屬層面上,如果不存在其他第三方應(yīng)用或用戶的直接介入,則可從規(guī)范層面認(rèn)定因果關(guān)系成立。
2.因果關(guān)系外部基于義務(wù)違反的歸責(zé)基準(zhǔn)
由于生成式人工智能的生成內(nèi)容日趨復(fù)雜多元,在開放的網(wǎng)絡(luò)環(huán)境中普遍存在著生成內(nèi)容泛在擴(kuò)散與難以追蹤的特征,導(dǎo)致侵害結(jié)果經(jīng)常難以認(rèn)定,因果關(guān)系更加無(wú)從判斷。即便采用規(guī)范因果關(guān)系基準(zhǔn),侵犯公民個(gè)人信息罪仍面臨歸責(zé)困境。因此,有必要在因果關(guān)系路徑之外考量其他無(wú)須判斷因果關(guān)系的刑事歸責(zé)形式。抽象危險(xiǎn)犯、行為犯、義務(wù)犯等歸責(zé)形式均可規(guī)避因果判斷難題。考慮到《個(gè)人信息保護(hù)法》第24條本身就對(duì)生成式人工智能所涉的自動(dòng)化決策規(guī)定有專門義務(wù),《生成式人工智能服務(wù)管理暫行辦法》第11條也專門對(duì)生成式人工智能處理個(gè)人信息規(guī)定了原則性前置義務(wù),因此,以義務(wù)前置為前提的義務(wù)犯模式相對(duì)更符合前置法的已然規(guī)制邏輯。可以根據(jù)前置法對(duì)生成式人工智能預(yù)設(shè)的義務(wù)要求,設(shè)定侵害行為與義務(wù)違反相結(jié)合的入罪標(biāo)準(zhǔn),避免陷入因果關(guān)系的判斷爭(zhēng)議。義務(wù)犯模式在司法實(shí)踐中已具有可行性基礎(chǔ)。《個(gè)人信息刑案解釋》在對(duì)“情節(jié)嚴(yán)重”的認(rèn)定中,已采用義務(wù)違反的設(shè)定方式。例如,在第5條第(一)項(xiàng)“出售或者提供行蹤軌跡信息,被他人用于犯罪的”規(guī)定,即設(shè)定了行為人防范信息被用于犯罪的義務(wù),違反該義務(wù)即符合入罪條件。
基于生成式人工智能的前置法義務(wù)體系,可為其設(shè)定專門的處理個(gè)人信息的義務(wù)違反歸責(zé)基準(zhǔn)。一是在生成式人工智能預(yù)訓(xùn)練階段,設(shè)定對(duì)用于預(yù)訓(xùn)練的個(gè)人信息數(shù)據(jù)進(jìn)行審查的合規(guī)義務(wù)及違反該義務(wù)的刑事責(zé)任基準(zhǔn)。如果生成式人工智能的部署方怠于行使對(duì)收集的個(gè)人信息數(shù)據(jù)進(jìn)行合法性審查,而導(dǎo)致大規(guī)模非法獲取處理了個(gè)人信息,則應(yīng)承擔(dān)相應(yīng)的刑事責(zé)任。二是在生成式人工智能交互階段,設(shè)定對(duì)獲取使用的用戶個(gè)人信息或第三方個(gè)人信息承擔(dān)合法性審查的合規(guī)義務(wù),并明確違反該義務(wù)的刑事責(zé)任基準(zhǔn)。如果部署方對(duì)交互中的個(gè)人信息未行使合法性審查義務(wù)而導(dǎo)致不當(dāng)處理了個(gè)人信息,則應(yīng)承擔(dān)相應(yīng)的義務(wù)違反刑事責(zé)任。
五
余論
針對(duì)生成式人工智能場(chǎng)景化處理個(gè)人信息的新特征與新問(wèn)題,在認(rèn)定刑事責(zé)任時(shí)可以通過(guò)侵犯公民個(gè)人信息罪“情節(jié)嚴(yán)重”的解釋空間靈活滿足司法認(rèn)定需求。然而隨著生成式人工智能普適化應(yīng)用,在場(chǎng)景治理需求下,現(xiàn)有侵犯公民個(gè)人信息罪規(guī)制過(guò)窄問(wèn)題將應(yīng)對(duì)無(wú)力,有必要考慮多維推動(dòng)相應(yīng)立法完善。首先,應(yīng)建立動(dòng)態(tài)多維的個(gè)人信息認(rèn)定標(biāo)準(zhǔn)。由于生成式人工智能場(chǎng)景差異化特征顯著,個(gè)人信息范圍隨場(chǎng)景變動(dòng)不居,未來(lái)需在合理分類基礎(chǔ)上,結(jié)合主體身份、使用目的及權(quán)利關(guān)聯(lián)度等因素,形成場(chǎng)景化的法定判斷體系,立法完善“結(jié)合識(shí)別”型個(gè)人信息的類型化認(rèn)定標(biāo)準(zhǔn)。其次,應(yīng)拓展本罪的行為類型范圍。為應(yīng)對(duì)生成式人工智能行為一體化難區(qū)分的特點(diǎn),需將目前僅涵蓋非法轉(zhuǎn)移型行為的罪狀,擴(kuò)展為與《個(gè)人信息保護(hù)法》相銜接的多元非法處理型行為,實(shí)現(xiàn)對(duì)個(gè)人信息的全面保護(hù)。最后,應(yīng)確立專門的義務(wù)犯歸責(zé)標(biāo)準(zhǔn)。針對(duì)生成式人工智能關(guān)聯(lián)式運(yùn)行導(dǎo)致的因果關(guān)系判斷困境,可針對(duì)生成式人工智能的運(yùn)行特質(zhì),預(yù)先明確設(shè)定其特定個(gè)人信息保護(hù)義務(wù),將侵害行為與義務(wù)違反判斷相結(jié)合,形成專門的入罪標(biāo)準(zhǔn),既可以前置解決生成式人工智能情形下難以預(yù)測(cè)的侵害風(fēng)險(xiǎn),也能避免因果判斷難題,明確有效的刑事歸責(zé)標(biāo)準(zhǔn)。
-向上滑動(dòng),查看完整目錄-
《華東政法大學(xué)學(xué)報(bào)》2025年第6期
【專題研討:數(shù)字經(jīng)濟(jì)時(shí)代個(gè)人信息的民行刑一體化保護(hù)】
1.數(shù)字經(jīng)濟(jì)時(shí)代個(gè)人信息保護(hù)的民行刑一體化推進(jìn)研究
劉艷紅
2.生成式人工智能背景下個(gè)人信息的刑法規(guī)制困境與歸責(zé)出路
李川
3.數(shù)字智治場(chǎng)域下侵犯公民個(gè)人信息罪的適用異化與匡正
楊楠
4.數(shù)智時(shí)代侵犯公民個(gè)人信息罪中個(gè)人信息的保護(hù)范圍
楊柳
【數(shù)字法治】
5.個(gè)人信息主體權(quán)利行使的民行救濟(jì)協(xié)同論
沈佳燕
6.生成式人工智能生產(chǎn)者過(guò)失犯罪的結(jié)果歸責(zé)
張維堯
7.論網(wǎng)絡(luò)單向意思聯(lián)絡(luò)下共同犯罪認(rèn)定體系的構(gòu)建
梁選點(diǎn)
【法學(xué)論壇】
8.中國(guó)專門法院何處去:反思與展望
左衛(wèi)民、何嬌嬌
9.生態(tài)環(huán)境法典中稅收條款的創(chuàng)制論析與體系構(gòu)想
葉金育
10.論紀(jì)檢監(jiān)察機(jī)制的平臺(tái)化轉(zhuǎn)型
薛小涵
11.中國(guó)語(yǔ)境下的代位繼承制度:功能闡明與理念重塑
李貝
12.“直”德之變與為漢制法
——董仲舒判斷“舍匿養(yǎng)子”案發(fā)微
李誠(chéng)予
【域外法苑】
13.國(guó)際知識(shí)產(chǎn)權(quán)訴訟管轄權(quán)沖突及其解決
阮開欣
【評(píng)案論法】
14.股東權(quán)利濫用一般條款的動(dòng)態(tài)判斷體系
潘子怡
《華東政法大學(xué)學(xué)報(bào)》由華東政法大學(xué)主辦,現(xiàn)為“中國(guó)法學(xué)核心科研評(píng)價(jià)來(lái)源期刊(CLSCI)”“中文社會(huì)科學(xué)引文索引(CSSCI)來(lái)源期刊”“中文法律類核心期刊”和“中國(guó)人文社會(huì)科學(xué)法學(xué)專業(yè)核心期刊”,先后獲評(píng)“全國(guó)高校社科精品期刊”“全國(guó)優(yōu)秀社科學(xué)報(bào)”“華東地區(qū)優(yōu)秀期刊”和“上海市最佳學(xué)報(bào)”。
點(diǎn)擊進(jìn)入下方小程序
獲取專屬解決方案~
責(zé)任編輯 | 王睿
審核人員 | 張文碩 范阿輝
本文聲明 | 本文章僅限學(xué)習(xí)交流使用,如遇侵權(quán),我們會(huì)及時(shí)刪除。本文章不代表北大法律信息網(wǎng)(北大法寶)和北京北大英華科技有限公司的法律意見或?qū)ο嚓P(guān)法規(guī)/案件/事件等的解讀。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.