![]()
來源 | 《金融監管研究》2026年第2期
作者 | 尚博文,對外經濟貿易大學法學院、
涉外法治研究院助理教授,法學博士
北大法律信息網簽約作者
邱山山,天津大學法學院博士研究生
一、問題的提出
![]()
人工智能技術正在重構全球金融市場的發展圖景。作為驅動經濟社會數字化轉型的核心引擎,人工智能通過優化決策機制、提升運營效能等方式重塑金融服務形態。數據密集型的金融服務領域具備海量標準化數據優勢,天然契合人工智能等前沿技術應用落地。但過度依賴人工智能技術也可能導致忽視其潛在技術內生風險和系統性風險,埋下風險隱患。當前學界對金融科技風險的研究多停留于特定業務場景分析,缺乏從宏觀層面評估人工智能技術在金融領域的風險形態,對金融人工智能應用監管的整體性思考尚顯不足,未能充分揭示金融領域人工智能應用的風險特征與監管理念轉型、制度機制創新之間的內在邏輯。
二、金融領域人工智能應用的風險
![]()
(一)加劇并放大系統性風險
人工智能技術在金融領域的應用,主要通過算法同質化、網絡互聯性增強以及對第三方模型的集中依賴等實現,在這一過程中易產生系統性風險,其原因有三:一是出于成本控制與效率提升的考量,金融機構在經營中傾向于采用相似的人工智能模型與數據源,導致決策邏輯和結果具有明顯的同構性;二是技術應用在客觀上會強化機構與市場間的連接,形成高度互聯互通的網絡結構;三是對少數大型模型提供商的依賴,滋生了“模型從眾”的行業生態。
(二)引發決策錯誤
“決策錯誤”主要指模型因數據缺陷或邏輯偏差,輸出與金融現實不符或與預期目標相悖的分析結果、風險評估或交易指令。有效訓練數據不足是導致模型決策基礎薄弱的核心原因,主要表現為數據規模的有限性和數據適用性偏低。數據污染是引發模型決策系統性偏差的關鍵因素,“毒性”訓練數據會讓虛假交易記錄、錯誤財務信息等不良數據混入訓練集,致使模型決策邏輯被污染數據所扭曲,輸出結果存在固有偏差。
(三)導致個人數據信息泄露
金融人工智能系統的搭建和運行過程中形成的數據聚集現象,成為數據及個人信息泄露的主要風險源。該風險源的形成主要通過兩個路徑:其一,基于合規義務的信息強制收集;其二,基于服務優化的信息提供。金融消費者為獲取精準的智能服務,會主動將敏感信息上傳至人工智能系統,從而形成信息泄露的風險敞口。金融消費者在與生成式人工智能交互過程中上傳的數據會被模型存儲并用于參數更新,其中也具有數據泄露的潛在風險。
(四)技術倫理失調
技術倫理失調,是指在金融人工智能的應用過程中,因技術固有缺陷或人為因素導致其決策過程或結果違背公平、透明、可信等倫理準則,進而引發歧視、欺詐、信任缺失等問題,這主要源自偏見歧視和“幻覺”。金融人工智能模型所使用的訓練數據和算法都可能會導致模型產生歧視性結果。金融訓練數據的完整性不足以及模型推理泛化能力較弱,也是誘發幻覺的主要原因。技術倫理失調主要會導致歧視性決策、深度偽造風險以及由模型“黑箱”特性引發的監管與信任難題。
(五)資源集中引發競爭風險
金融人工智能領域因關鍵資源集中、商業模式整合及技術特性,會引發市場結構失衡與潛在競爭抑制風險。大型金融科技企業依托其技術優勢不斷拓寬業務邊界,累積海量個人信息和金融交易數據。競爭風險具體表現為市場競爭格局的扭曲與新型壟斷行為的出現,呈現出“贏者通吃”的市場格局,衍生出以算法為主導的壟斷行為。
三、金融領域人工智能監管的策略檢視與反思
![]()
目前,我國對通用人工智能的法律規制仍處于初步探索階段,主要依賴人工智能服務、算法推薦相關的部門規章,以及部分金融行業標準進行行為規范,尚未形成系統化、層級化的立法架構。綜合分析各國監管策略,其出發點大致可歸納為人權保障、技術標準、風險分類及敏捷治理等四個維度。對金融領域人工智能監管策略局限的反思主要體現在以下方面:
(一)制度規則存在結構性不對稱
我國金融領域人工智能監管呈現雙重困境:一是難以將宏觀性原則規范有效轉化為微觀層面的具體行為指引;二是缺乏與技術、市場共同演進的動態制度安排。從規則可執行性來看,以倫理、人權為基礎的監管原則多停留于抽象層面,缺乏可操作的細化標準。從規則動態適應性來看,傳統金融監管策略不足以有效響應人工智能的快速迭代和應用場景的瞬息萬變。
(二)事后懲戒機制的滯后性缺陷
我國金融業目前“分業經營、分業監管”的格局,使得金融科技監管呈現出多元主體與多重標準并存的治理形態。在應對金融人工智能系統的復合型風險時,往往面臨資源整合與統一調度協調的挑戰。當前金融人工智能監管在整體協同、前置介入上的結構性短板,不僅使風險應對陷入被動,更難以從源頭上捕捉控制風險的良機。
(三)協同治理的制度性掣肘
金融領域人工智能的監管涉及技術研發者、數據提供者、消費者權益組織以及行業自律團體等多元利益主體。然而,當前的監管體系中,多元主體間的利益訴求和價值取向仍然存在差異,制約了協同治理的實際效果。標準化制定過程中的利益失衡更為突出,不同主體在技術發展、風險認知與合規標準理解上存在信息不對稱性。
四、金融領域人工智能應用的三重監管應對
![]()
傳統金融監管模式在應對人工智能技術時不可避免地會陷入科林格里奇困境。為實現人工智能技術在金融領域的良性發展,需重塑監管理念,從靜態、剛性向動態與彈性轉變,從事后監管、單一監管向事前規制與協同監管轉變。
(一)注重監管時序的預防性:由單一事后懲處轉向重視事前規制
重視事前規制意味著法律介入社會關系的“關口”前移。具體路徑可從建立風險監測與預警機制、開展合規審計及明確各主體義務等方面展開。首先,明確金融人工智能模型提供者、系統提供者、系統部署者等鏈條主體的義務,構建金融消費者權利保障的先設機制。其次,建立金融人工智能安全風險監測與預警機制,對影響金融消費者權益的風險進行精準監測、精細評估、精確預警。最后,建立金融領域人工智能系統進入市場大規模部署前的合規審計機制,從技術合規、數據合規、流程合規、倫理合規等維度識別潛在的法律和道德風險。
(二)加強監管空間的適應性:監管規則內嵌于模型設計
監管框架應積極主動引導金融人工智能系統的風險自我評估與調適,將法律規則及倫理內嵌于技術發展進程中。要將倫理準則與合規要求嵌入人工智能系統的程序代碼中,使金融人工智能系統具備內生合規性與合理性邏輯結構。首先,建立作為規范基礎的金融科技倫理框架,在《金融法》立法中充分回應新興科技的影響。其次,持續優化金融科技倫理框架的動態調適機制,基于法律法規變化和技術發展調整系統嵌入的倫理要求。最后,加強技術開發者的金融法律素養與倫理意識培育,防范設計者偏見對系統造成負面影響。
(三)提升監管主體的協同性:從二元格局到多元協同
需要多元主體協同治理才能增強監管體系的韌性與適應性。其一,搭建多元利益主體溝通平臺,形成由監管部門、技術專家、社會組織、研究機構和公眾等多方主體共同參與的技術風險治理組織網絡。其二,明確多元協同監管中各主體的職責邊界:監管機構負責頂層設計和統籌協調;金融人工智能服務提供者履行數據、模型設計合法審查及算法披露等義務;金融消費者承擔合理使用金融服務、配合風險防控措施等義務;行業協會、自律組織等主體承擔合規培訓、政策建議等職責。
五、結語
![]()
金融領域人工智能的深度融合,既提升了金融服務效率,也形成了復雜多維的風險結構。面對這一挑戰,應在監管時序上從被動回應轉向主動預防,在監管空間上推動“設計即監管”原則落地,在監管主體上構建多維協同治理框架。未來的《金融法》及配套監管體系,應以“技術向善”為導向,統籌安全與發展、創新與穩定、效率與公平等多重目標,構建一個前瞻預防、規則內嵌、多元協同的高水平現代化的科學治理體系,在法治軌道上實現技術理性與制度理性的融合,以保障金融高質量發展。
點擊進入下方小程序
獲取專屬解決方案~
責任編輯 | 王睿
審核人員 | 張文碩
本文聲明 | 本文章僅限學習交流使用,如遇侵權,我們會及時刪除。本文章不代表北大法律信息網(北大法寶)和北京北大英華科技有限公司的法律意見或對相關法規/案件/事件等的解讀。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.