![]()
吉萍
隨著人工智能(AI)迅速滲透至醫療衛生各領域,在顯著提升醫療服務效能與質量的同時,亦引發了一系列亟待解決的重要倫理風險與社會治理挑戰。為系統性應對醫學AI發展中的倫理困境與監管難題,全球各國政府、國際組織、學術界和工業界正加強國際合作與交流,積極探索符合醫學AI技術規律與特點的監管方式,構建解決AI倫理問題的可能框架、指南和原則,規范AI技術在醫學領域的開發和應用。
自2021年以來,WHO陸續發布《醫療人工智能的倫理與治理》(Ethics and governance of artificial intelligence for health)、《為基于人工智能的醫療設備生成證據:訓練、驗證和評估框架》報告(Generating evidence for artificial intelligence based medical devices: a framework for training, validation and evaluation)、《對醫療人工智能的監管考慮》(Regulatory considerations on artificial intelligence for health)、《醫療人工智能的倫理與治理:多模態大模型指南》(Ethics and governance of artificial intelligence for health: guidance on large multi-modal models)等重要文件。許多國家和組織的相關機構也紛紛發布關于醫療AI應用、風險以及倫理和社會影響相關治理報告與建議,現將其核心要點總結如下。
▉(一)規范評估與報告
在評估AI工具的模型準確性、穩健性、安全有效性時,需開展臨床試驗,生成可靠的循證醫學證據,確保算法在預期用途和使用場景下安全有效。另外,為提升AI臨床研究的報告規范性,2020年以來,AI相關臨床試驗研究的報告規范指南陸續發布,例如:人工智能干預臨床試驗方案報告指南SPIRIT-AI(Standard protocol items: recommendations for interventional trials–artificial intelligence)、人工智能臨床試驗報告規范CONSORT-AI(Consolidated standards of reporting trials–artificial intelligence)、人工智能驅動下決策輔助系統早期臨床評價的報告指南DECIDE-AI(Developmental and exploratory clinical investigations of decision support systems driven by artificial intelligence)、臨床人工智能建模的最低信息標準MI-CLAIM(Minimum information about clinical artificial intelligence modeling)。這些指南旨在規范人工智能評估結果的呈現方式,提高研究的可重復性、透明度和信任度。
▉(二)全面、多維度、分階段的評估
在推進AI相關醫療應用設備與系統的臨床安全性和有效性、公平性和非歧視性、透明度和可追溯性以及隱私和安全評估時,建議采用由特定清單和問題構成的自評估方法,助力AI設計師、開發者、評估人員和監管人員開發出值得信賴且符合倫理的AI解決方案。此外,應建立覆蓋AI全生命周期的多維度、多階段評估驗證體系:包括算法性能驗證、臨床前評價、可用性測試等,確保產品滿足用戶需求并識別可預見風險,同時明確產品使用限制及警示信息;上市后需持續監測算法泛化能力,收集用戶反饋(如投訴、不良事件等),對未預見風險進行再評估并采取控制措施。建議外部驗證由第三方評估機構開展,以確保評估的全面性和客觀性。
▉(三)多方共同參與,責任共擔
創建安全有效的多模態大模型,需要各國政府、技術公司、醫療機構、開發人員、患者及社會團隊等相關方共同參與開發、部署和監管的各個階段。在此過程中還應強化醫學AI研究與應用相關方的職責,通過系統性構建契合AI技術演進規律與內在特性的倫理治理新范式,明確以下關鍵問題:需應對哪些風險?誰最適合應對這些風險?相關方可采取哪些措施應對風險?
▉(四)基于風險的分類管理
AI醫療器械需從軟件、用途、功能、算法等不同角度實施分類管理,并結合具體應用場景,因使用對象不同,風險水平也會存在差異。在臨床應用中,應根據AI系統的相關風險進行分類與分級管理指導:高風險技術需要嚴格的臨床證據支持,其部署和監管需更為謹慎;管理級別應與潛在風險相匹配,并通過綜合判定預期用途和使用場景(如是否與診療決策相關)來確定風險等級。
▉(五)加強機構職責與監管能力
開展醫學AI研究和部署的機構是管理責任主體,需嚴格遵循國家相關法律法規,健全機構風險評估與監測預警、倫理審查、全過程監督、違規行為調查處理、培訓與咨詢等制度流程。作為醫學AI產品的主要落地應用方,醫療機構在部署AI應用于臨床活動前,需建立數據、信息、業務等跨學科多部門協作的多維度評估機制和團隊,制定評估計劃,確定評估路徑與方式等。通過評估技術的安全性、有效性、倫理符合性,充分考量實踐中的適用性、必要性、預期應用效果等,同時確保AI模型部署所需的工作流程調整、IT基礎設施及人員配置到位。
編輯 |鄭夢瑩
責任編輯 | 任嘉霖
審核 | 劉紅霞
《中華醫學信息導報》2025年24期第9版
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.