隨著生成式人工智能(generative AI)技術的快速發展,醫學正在經歷深刻的結構性變革。傳統的醫患二元關系正逐步演化為醫–患–AI 三元診療體系,其中 AI 不再是工具,而成為知識生成和解釋的行為參與者。這一變化不僅影響臨床互動結構,也重塑醫學專業性、患者主體性及治理框架。
在傳統臨床實踐中,醫生依賴專業判斷,患者提供癥狀敘述,醫療決策呈現單向知識流動。然而,生成式 AI 可以在就診前為患者提供初步分析、在診療過程中為醫生提供差異診斷和風險評估,并在病歷生成與檢查解讀中提供解釋性內容,使 AI 成為臨床解釋鏈的一部分。由此,醫學知識的驗證方式從證據核查轉向解釋判斷,醫生必須在理解 AI 推理邏輯與偏差的基礎上進行判斷,而患者在 AI 提供的解釋框架下也參與決策。這種三方互動使臨床咨詢成為協作解釋的過程,知識來源多元化、驗證方式復雜化,傳統證據導向模式逐漸向協作解釋模式轉型。
生成式 AI 的介入同時重塑醫學專業性。醫生不再是唯一知識權威,而需在 AI 輸出、患者信息與臨床判斷之間進行協調,承擔解釋者、偏差識別者和倫理行動者的角色。這一角色轉變要求醫生具備新的能力:理解 AI 模型原理、設計有效提示、識別偏差、將 AI 輸出融入個體化決策,并向患者解釋復雜信息。與此同時,AI 在病歷生成、文獻檢索與差異診斷中的高效性可能導致部分認知技能的逐漸衰退,形成專業能力侵蝕風險。如果醫生在長期依賴 AI 后無法獨立判斷,系統性錯誤可能累積,對醫療安全構成威脅。因此,醫學專業性從單一生物醫學知識延伸至技術理解、解釋協調與倫理判斷,形成多維度能力結構。
患者主體性在三元診療體系中呈現復雜的增強與受制并存狀態。AI 提供的信息顯著提升患者形式上的自主性,但實際行動能力仍受醫療資源、數字素養、經濟條件和文化背景限制。此外,AI 的解釋框架具有隱含價值傾向,可能引導患者的風險認知和決策行為。患者既是信息獲取者和決策參與者,也是潛在受影響者,因此治理體系必須通過教育、透明機制和支持體系確保患者能夠將信息自主性轉化為實質行動能動性。
為保障三元診療體系的安全、透明與公平,制度治理成為核心環節。首先,臨床標準應包括 AI 參與的透明記錄,如輸入輸出內容、模型版本、醫生采納或拒絕理由,為責任追溯和偏差分析提供基礎。其次,醫院需建立跨職能 AI 治理機制,包括風險分級管理、模型性能監測和培訓體系,確保 AI 介入可控。技術企業應承擔透明性與可審計責任,包括提供模型版本備案、訓練數據范圍說明、偏差檢測結果及輸入輸出日志。國家監管應從靜態審批走向動態治理,包括持續監測、第三方審計、分布式責任結構以及患者權利法定化,以適應 AI 快速迭代和復雜互動的現實需求。
在政策與實踐層面,三元診療體系的可持續發展依賴以下措施:一是建立系統化 AI 臨床記錄標準,確保醫療行為可追溯;二是在醫院跨職能治理體系的構建中實施過程管理,形成透明的操作機制;三是強化醫生與患者的 AI 素養教育,使醫生具備解釋協調和偏差識別能力,加強患者對人工智能醫療的認知特征與局限性的認識和理解;四是規范企業責任和技術透明性,保障模型輸出的可審計性;五是推進國家動態監管與患者保護,實現醫療公平與安全。
未來研究需關注生成式 AI 對臨床決策行為的影響、醫生技能侵蝕及干預策略、患者能動性優化機制、多層次治理模型構建,以及跨文化和制度比較研究。這些研究將為三元診療體系的優化和政策完善提供理論與實踐支持。
綜上,生成式 AI 對醫學的影響具有深刻的結構性,它重塑了知識生成方式、臨床決策認知、專業性內涵和患者主體性,并提出全新的治理需求。三元診療體系的核心挑戰不是技術能力,而是制度能否成熟、專業能力能否適應、患者能否實質賦能,以及治理機制能否透明、公平和動態。未來醫療體系的安全、有效和公平性取決于技術創新與制度完善的協同演化。通過建立透明、可審計、責任清晰的治理框架,三元診療體系有望實現可持續發展,為公共健康和醫療安全提供堅實保障。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.