作者|徐媛
責編|薛應軍
正文共3467個字,預計閱讀需10分鐘▼
生成式人工智能在輸出內容時,可能出現偏離客觀事實、捏造信息乃至邏輯不通的現象,此即“生成式人工智能幻覺”。這種幻覺以一種看似權威、流暢的語言形式呈現,實則具有高度的迷惑性,其潛在的風險也由此日益產生。近年來,隨著生成式人工智能技術快速融入人們生產生活,生成式人工智能幻覺內容已不再是單純的技術瑕疵。當其關涉個人聲譽、市場秩序乃至公共安全時,則可能直接觸發侵權、不正當競爭、危害公共安全等一系列法律后果。因此,亟須構建一套與技術發展相適應的法律規制框架,保障數字社會安全與秩序。
生成式人工智能幻覺法律風險的類型化分析
近年來,一些實際案例顯示,生成式人工智能幻覺的法律風險已從理論預警演變為現實威脅,其具體可作如下分類。
一是侵犯人格權益的法律風險。生成式人工智能幻覺引發的人格權風險,根源在于技術缺陷導致的客觀事實扭曲。首先,幻覺內容可能侵犯名譽權。生成式人工智能模型容易因信息處理偏差,生成關于個人的負面不實描述,如將其與失信或不法行為相關聯。這種由機器生成的“事實性錯誤”,因其呈現方式看似中立,極易誤導第三方,從而可能導致個人社會評價降低。其次,幻覺內容可能侵犯隱私權。生成式人工智能模型容易在無事實依據下,“推斷”并生成涉及個人健康、行蹤的虛假信息,這種技術失靈可能造成對個人私密空間的非自愿曝光。
二是擾亂市場秩序的法律風險。在商業宣傳層面,生成式人工智能可能因數據偏差或邏輯推斷錯誤,在生成產品介紹或用戶評價時,自動添加并非事實的正面功能描述,或生成不存在的溢美之詞。這種行為雖非商家本意,但客觀上構成虛假或引人誤解的商業宣傳,可能誤導消費者的購買決策。在市場競爭層面,生成式人工智能幻覺現象也可能無意中損害特定企業的商譽。例如,生成式人工智能在整合分析網絡信息時,可能錯誤地將一家企業的名稱與另一家企業的負面事件(如產品召回、法律訴訟)相關聯,并生成看似合理的分析報告。這種客觀錯誤信息的傳播,同樣構成對商業信譽的損害。
三是妨害社會管理秩序的法律風險。首先,生成式人工智能幻覺現象可能在客觀上動搖社會共識。大模型在處理海量信息并生成相關敘事時,可能因數據關聯錯誤或邏輯推斷偏差,無意中“創造”出關于公共衛生事件、重大災害的不實情節。這些看似可信的虛假敘事一旦傳播開來,即使并非出于任何人的主觀意圖,也會引發社會恐慌,客觀上造成擾亂公共秩序的后果。其次,幻覺內容可能在無意間觸及歷史敘事紅線。例如,模型可能在學習了不全面或有偏見的歷史文獻后,生成歷史虛無主義的錯誤觀點,或對特定群體帶有歧視意味的描述。這種技術性錯誤同樣可能在公共領域引發爭議、激化矛盾,對主流價值觀和社會穩定造成沖擊。
生成式人工智能幻覺法律風險治理面臨的問題
實踐中,生成式人工智能幻覺在法律風險治理中面臨多重挑戰,主要涉及責任認定、技術缺陷和監管機制等問題。
一是責任主體認定困難。當生成式人工智能幻覺內容造成損害時,確定責任主體變得異常困難。一項生成服務的背后通常涉及數據提供、算法設計、模型訓練、服務提供及最終用戶等多個參與方。根據《中華人民共和國民法典》第一千一百六十五條的規定,行為人因過錯侵害他人民事權益造成損害的,應當承擔侵權責任。但在生成式人工智能幻覺場景下,清晰證明某個特定主體的“過錯”及其行為與損害結果間的因果關系極為不易。例如,一段誹謗性內容,其根源是訓練數據的偏見還是算法的概率性缺陷?服務提供者應在何種程度上負責?現行侵權責任法規則在面對這種多方參與、技術“黑箱”、因果模糊時,其歸責原則顯得力不從心。
二是傳統監管模式失靈。既有的信息內容監管大多建立在“事后處置”邏輯之上。例如,《網絡信息內容生態治理規定》側重于平臺對違法信息的發現與處置義務。這種模式難以應對生成式人工智能幻覺的挑戰。生成式人工智能幻覺內容的生成具有即時性和海量性特征,可能遠超人工審核極限,且其傳播具有病毒式擴散特點,損害后果往往在監管介入前就已發生且難以逆轉。更關鍵的是,傳統監管主要針對明確的人為虛假信息,而生成式人工智能幻覺內容的“虛假性”需與事實比對才能發現,這大大增加了監管機構的識別成本與執法難度。
三是司法證明標準缺失。在訴訟中,生成式人工智能幻覺的受害人面臨著極高的證明門檻。首先是因果關系的證明。由于模型內部運作的不透明性,要從技術上論證一個特定輸出是必然結果而非偶然,幾乎不可能。其次是主觀過錯的證明。對于算法,如何適用“主觀過錯”這一概念,法學界與司法實踐均未形成共識。雖然我國民法典第一千一百九十五條規定了網絡服務提供者的“通知—刪除”規則,但這主要適用于用戶發布的侵權信息,對于平臺自身模型產生的幻覺內容是否當然適用,以及如何認定其“知道或應當知道”,均缺乏明確的司法解釋與裁判標準。
四是單一治理手段局限。當前,應對技術風險的思路,仍傾向于依賴法律的“硬性規制”。然而,對于生成式人工智能幻覺這種內生于技術復雜性的現象,單一法律手段顯得尤為局限。其幻覺的根源深植于深度學習模型的技術范式,無法通過法律條文簡單“禁止”其發生。盡管如《互聯網信息服務深度合成管理規定》已要求對生成內容進行標識,但這更多是技術性規范,難以觸及幻覺的根本成因。若法律規制過于嚴苛,可能抑制技術創新;若規制過于寬松,則無法有效保護公眾權益。此外,生成式人工智能的應用場景風險等級迥異,“一刀切”的規制方式則無法實現精準應對。
生成式人工智能幻覺法律風險的治理路徑
AI幻覺與AI技術發展相伴而生,隨著科技的高速發展,生成式人工智能幻覺也給人們帶來諸多困擾,具體可嘗試從以下幾個方面規制生成式人工智能幻覺:
一是明確多元主體的責任鏈條。為了解決責任主體認定困難問題,需要構建清晰的責任分配框架。為有效界定民法典第一千一百六十五條規定的“過錯”,應根據各方主體的控制能力與注意義務劃分責任。應針對開發者與訓練者,確立其源頭性注意義務;針對服務提供者,強化其信息內容管理者地位,要求其進行安全評估,建立風險監測與內容標識機制;針對專業領域使用者,明確其對生成內容負有審慎核實的義務。由此,形成一個從源頭到終端的責任鏈條,使各環節參與主體承擔與其角色相匹配的法律責任。
二是實施分級分類的場景化治理。改變傳統“一刀切”監管模式,引入風險分級分類的場景化治理理念。監管機構應根據生成式人工智能服務的應用場景與潛在風險,設定具有差異化的監管方式。對社交娛樂等低風險場景,可側重于內容標識與用戶提示。對醫療診斷、金融投資等高風險領域,則必須設置更嚴格的準入標準與事前評估義務,要求服務提供者證明其模型的可靠性,并強制其進行人工復核。
三是構建“技管結合”的司法應對體系。針對民法典第一千一百九十五條規定的“通知—刪除”規則的適用問題,應在實體法層面,考慮針對高風險應用場景引入舉證責任倒置。當用戶能初步證明其損害由幻覺內容引發時,應由服務提供者承擔證明其模型無缺陷或已盡高度注意義務的責任,以平衡雙方的舉證能力與訴訟地位。在程序法層面,應探索建立“技術事實查明”機制。法院可引入技術調查官或委托權威機構進行技術鑒定,為法官判斷因果關系與服務提供者是否“知道或應當知道”提供專業意見,為形成相關裁判標準積累實踐基礎。
四是推動技術與法律的“技制”共治。一方面,應為生成式人工智能技術設定明確的合規目標與路徑。通過立法或設置國家強制性標準,明確要求將幻覺檢測、內容溯源、顯著標識等安全保障功能,作為人工智能模型與服務的“出廠標配”,成為其內生性的一部分,從源頭上引導技術朝著負責任創新方向發展。另一方面,利用技術手段增強法律實施的效能。這包括激勵研發并應用自動化合規檢測工具,幫助監管機構與企業高效評估模型是否符合法律規定。通過技術賦能,其監督能力與裁判精準度將得到提升,從而構筑起一道由代碼與規則共同編織的、應對幻覺風險的嚴密防線。
當前,生成式人工智能的廣泛應用為社會發展注入強大動能,也引發了幻覺帶來的法律風險及其規制困境。因此,要構建以責任鏈條、場景化治理、“技管結合”與“技制”共治為核心的規制路徑。人工智能相關立法應積極回應技術迭代的特殊需要,聚焦技術與法律的協同治理,積極參與人工智能風險防范的國際對話與規則協調,為全球人工智能法治發展貢獻中國智慧。
本文為貴州省社會科學院人才引進科研啟動項目“貴州省人工智能產業高質量發展的激勵制度研究”(項目編號:GCRC2512)的階段性研究成果。
(作者單位:貴州省社會科學院法律研究所)

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.