原創:陳夏紅,本文于2025年11月29日首發于澎湃財經頻道“澎湃商學院”欄目,原標題為《生成式人工智能:是破產界的效率利劍還是挖坑神器?》。
作者簡介
陳夏紅,甘肅岷縣人,法學博士。現為中國政法大學破產法與企業重組研究中心研究員,《中國政法大學學報》編審、編輯部主任。全國人大財經委破產法修改起草組成員。國際破產協會(INSOL)、歐洲破產協會(INSOL Europe)、美國破產學會(ABI)會員。陳夏紅近年主要從事破產法研究。著有《破產法札記》《破產企業職工權益保護:模式、情境與程序》《企業破產法注釋》等著作。編有《破產法信札》及“破產實務前沿”系列出版物。知識星球“破產法百家談”主持人。在澎湃財經頻道“澎湃商學院”欄目,開有專欄“破產法的溫度”。

2025年10月,美國阿拉巴馬州杰克遜醫院(Jackson Hospital & Clinic)破產案中使用生成式人工智能偽造案例的鬧劇終于落幕。
在該案例中,債權人代理律師凱西·普雷斯通(Cassie Preston)向阿拉巴馬中區破產法院提交的法律文件中,使用了人工智能生成的文本,其中包含有偽造的案例。普雷斯通律師供職于戈登·里斯律師事務所(Gordon Rees Scully Mansukhani LLP)。該律所在全美所有州都開設有分所,供職律師超過1800人,年收入在美國律所中能躋身百強。豪門出丑事,自然更容易引起關注。
近年來,隨著生成式人工智能的迅速發展,法律界使用人工智能生成文本且被發現偽造案例的新聞,在全球不同國家都有案例出現,已經有點見怪不怪。但在破產法領域,這樣的事件還是引起業界的反思。
在這之前,就有類似情況出現:2025年7月18日,美國伊利諾伊北區破產法院法官邁克爾·斯萊德(Michael Slade)法官做出裁令,向西姆拉德律師事務所(Semrad Law Firm)開出5500美元罰單,并強制要求該所律師托馬斯·尼爾德(Thomas Nield)和另一位高級合伙人參加“全國破產法官會議”上的人工智能倫理培訓課。
在該事件中,尼爾德在代理一起第13章個人債務重整程序時,被發現在法律文件中引用了4個并不存在的案例。尼爾德坦承其使用ChatGPT完成法律推理。他認為這個人工智能應用值得信任,所以在準備材料時第一次使用人工智能助手,未預料到人工智能會給其挖坑,更沒有在完稿后予以核查。
杰克遜醫院破產案中負面新聞的結局是:普雷斯通和另一位同事退出代理。律所出面向法官和其他相關方道歉,改進所內使用人工智能的政策,強化引用核查,承諾接受法院科處的任何處罰。此外,戈登·里斯律師事務所與相關債權人、債務人達成和解協議,承擔相關方律師費共計5.5萬美元。
在判例法國家使用人工智能生成的虛假判例,已經成為威脅法律文檔可信度的頭號殺手,破產界概莫能外。
前述斯萊德法官公開反對律師執業中對人工智能的過度依賴,“人工智能可以像斯蒂芬·金一樣寫作,可以像斯威夫特·泰勒一樣唱歌,但它不能完成律師業務。ChatGPT沒有接入法律專業數據庫,不能核驗,不能評估并分析其結果,不能決定哪個結果靠譜,更不能形成一份精準且符合‘藍寶書’引用格式的正確案例”,“任何律師都不能不去核驗其結果,而直接使用ChatGPT或者其他生成式人工智能來完成工作”。
我國不是判例法國家,律師使用人工智能生成虛假案例的概率大大降低,甚至也不用特別擔心實務工作者使用人工智能生成的虛假案例。但在其他方面,比如使用人工智能生成虛假數據、虛假官方文件、虛假學術文獻等情況,就目前情形來看恐怕不會是少數。最近筆者個人不止一次碰到破產法相關文獻中出現涉嫌使用人工智能生成偽造資料的情況:
比如,偶然檢索到一篇與跨境破產有關的論文,其中寫道,“隨著實踐的發展,最高人民法院于2020年發布《關于審理跨境破產案件若干問題的規定》,對跨境破產案件的相關問題作出了系統性的規范,標志著中國跨境破產法律制度進入成熟發展階段。”論者言之鑿鑿,但最高人民法院從未在2020年公開發布過這樣一份有關跨境破產的文件。
再比如,前幾天評閱的一篇論文中,赫然出現這樣一個文獻:“中國政法大學破產法研究中心:《重整企業信用狀況調查報告(2022年)》”。中國政法大學不存在破產法研究中心;即便“中國政法大學破產法與企業重組研究中心”,也從未在2022年發布過這樣一份涉及重整企業信用狀況調查的報告。
上述兩個事例,都出自專業性寫作,而非法律文件中。就這個趨勢來看,破產實務領域不太可能自外于生成式人工智能流行的洪流。
人工智能技術發展日新月異,的確可以高質量完成大量重復性勞動,并將人類從部分重復性、基礎性工作中解脫出來。對于破產界同行來說,在日常工作中善于使用人工智能,讓業務的發展搭上技術突飛猛進的東風,不全是壞事。
但生成式人工智能是一把雙刃劍,用好了是效率利劍,用不好就是挖坑神器。對于人工智能生成文本在破產業務中的使用,還是應該有一定的警惕:
第一,人工核查是使用生成式人工智能文本絕對必須的生命線。對于任何使用人工智能生成文本的主體,在借助人工智能完成基礎性工作的同時,一定要確保人工核查。在效率上,人類智能可能不如人工智能,但在專業信息真偽判斷上人類智能遠勝人工智能。相關法律文件或者專業文獻的署名作者,應該成為復核人工智能生成文本可靠與否的第一責任人。
第二,破產實務人員所在供職機構和行業協會,應該出臺人工智能生成文本使用的基本倫理規則,尤其是規范和紀律角度強化人工智能復核環節,并以此環節的有無,作為將來界定使用人工智能生成虛假文本責任的重要考量因素。另外,相關供職機構和行業協會對于已經發現的使用人工智能生成虛假文本的行為,應該視情節嚴重程度及危害嚴重程度,事先確定批評、罰款、解職、除名等處罰規則并嚴格執行。
第三,行政機構、法院等官方機構,應該對使用人工智能生成文本設定監管標準。一方面,行政機構在業務監管層面應該允許和鼓勵對人工智能的使用,但在業務領域什么環節能使用、在多大程度和范圍內使用,應該有個指引。另一方面,在管理人報酬確定等問題上,司法機構審查時應與其專業能力、人工智能使用投入和實際投入勞動量掛鉤。對于過度依賴人工智能生成文本、相關法律文件有較多人工智能生成虛假文本或者錯漏信息的機構和個人,應該予以降低報酬、公示、解職、除名等處罰規則。
使用人工智能生成偽造資料的歪風,正在席卷破產界。對此,我們不應該當笑話看,而是應該未雨綢繆,確立指導規則,規范使用紀律,構建科學合理的“使用+復核”雙重保險機制。
免責聲明:本文章僅限學習交流使用,版權歸原作者所有。文章內容屬作者個人觀點,不代表本公號觀點和立場。
![]()
中國政法大學科技成果轉化基地
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.