當全球AI競賽聚焦于 “更大參數、更高分數” 時,Hippocratic AI和Abridge——這兩家風格迥異的醫療科技公司——正悄然改寫游戲規則。
一邊是 “安全第一” 的倫理堅守者:Hippocratic AI以醫學倫理基石命名,創始人團隊來自斯坦福醫學院和頂尖AI實驗室,旨在構建永遠不會越界的醫療對話系統。
一邊是 “極致聚焦” 的效率革新者:Abridge源自卡內基梅隆大學的人機交互研究,由連續創業者領導,專注于解決醫療記錄這一單點痛點,不染指任何臨床決策。
它們看似選擇了兩條不同的道路,卻共同證明了一個反直覺的真理:在高風險的真實醫療世界中,最有價值的AI能力可能不是“無限生成”,而是 “精確克制” 。
01┃被叫停的 “完美模型” :當技術超越責任框架
![]()
醫療AI的發展歷程中有一個標志性的轉折點。據《華爾街日報》等媒體報道,幾年前,美國凱澤醫療集團(Kaiser Permanente)內部研發出一套能夠提前數小時預測患者病情惡化的AI系統。在測試環境中,這個模型表現卓越,能夠提前識別超過80%的潛在ICU病例,理論上每年可以避免大量醫療危機。然而就在臨床部署前的最終評審中,項目被緊急叫停了。
這個決定的背后,隱藏著一個比技術性能更根本的問題。《新英格蘭醫學雜志》對此作出了精辟的總結:“在醫療AI領域,問責制是比準確性更根本的障礙。” 當算法的判斷開始直接影響人類的生命,責任劃分與權力邊界便成為無法回避的根本問題。
02┃Hippocratic AI:把醫學誓言編碼進算法
Hippocratic AI 在 2025 年完成 1.26 億美元 C 輪融資,公司估值約 35 億美元,累計融資超過 4 億美元。本輪由 Avenir Growth 領投,投資方包括 Andreessen Horowitz (A16z) 、General Catalyst、CapitalG(谷歌成長基金) 等一線機構,顯示資本對其“安全可控醫療 AI”路徑的高度認可。
![]()
“首要原則是絕不傷害病人”——這句源自醫學倫理的核心原則,被Hippocratic AI轉化為可執行的工程約束。這家公司的創始團隊來自斯坦福醫學院和頂尖AI實驗室,他們的目標不是構建一個“無所不能”的醫療AI,而是創造一個“永遠不會越界”的對話系統。
Hippocratic AI設計的響應機制體現了這種安全優先的哲學。據該公司在技術演示中展示,當對話涉及診斷建議或用藥指導時,系統不會試圖給出回答,而是會立即停止生成內容并建議轉接人工。即使患者沒有直接詢問,只要對話中出現了“胸痛、呼吸困難和家族病史”這樣的高危組合,系統也會自動提升警戒級別。
最值得關注的是其系統架構設計。根據Hippocratic AI在行業會議上的披露,其最新的“北極星”系統擁有超過3萬億參數,由數百個專門訓練的大模型組成一個“星座系統”。這些模型各司其職——有的專門核對藥物名稱,有的檢查劑量安全,還有一個主要負責“說話”的主模型確保對話流暢。它們互相監督、交叉驗證,就像一個頂級的醫療團隊在協作。
該公司的技術負責人在接受采訪時解釋道:“我們訓練AI通過專業護理考試,不是為了讓它替代護士,而是為了讓AI更準確地理解哪些問題自己無權回答。”這種在能力邊界處的克制,正是Hippocratic AI最核心的創新。
03Abridge:聰明的“記錄員”,不做“決策者”
Abridge 于 2025 年完成 3 億美元 E 輪融資,由 Andreessen Horowitz(a16z)領投,Khosla Ventures 等參投,估值約 53 億美元。截至目前,Abridge 累計融資接近 8 億美元,并已在上百家美國醫療系統落地,成為生成式醫療文檔賽道中最具規模效應的公司之一。
![]()
如果說Hippocratic AI的策略是“在邊界處設防”,那么Abridge選擇的則是更為徹底的路徑——從一開始就不進入決策領域。這家源自卡內基梅隆大學的公司將自己定位為 “AI醫療記錄員”,其核心功能簡單而明確:在醫患交談過程中,自動將對話轉化為結構化的臨床記錄。
Abridge的影響力通過數字可見一斑:據STAT News報道,該公司已被美國300多家醫院采用,包括梅奧診所、約翰·霍普金斯醫學中心等頂級醫療機構。醫生們的反饋數據顯示,使用后平均每天可節省約2.5小時的文書工作時間。
更深刻的影響體現在醫生的職業體驗上。醫療媒體《凱撒健康新聞》在一篇報道中記錄了多位醫生的親身經歷:一位從業多年的醫生坦言,“原本每天要帶工作回家,現在終于不用了”;另一位醫生表示,“有人告訴我‘從醫的快樂回來了’”;更有醫生直言,“這甚至可能延長我的職業生涯”。
正是這種清晰的自我限定,讓Abridge能夠快速通過嚴格的醫療合規審查。“我們不做診斷,我們只做診斷過程的記錄者。”Abridge CEO這樣定義公司的邊界,“這種克制不是能力不足,而是戰略選擇。”
04從醫療到全局:高杠桿AI系統的 “停機邏輯”
醫療領域的這些實踐揭示了一個具有普適性的原則:任何高影響力AI系統的長期價值,不僅取決于它能做什么,更取決于它在不該做什么時能否可靠地停止。這一“安全優先”的理念正在多個關鍵領域成為新的標準。
在金融交易領域,頂級投資機構為AI系統設置的 “熔斷機制” 體現了同樣的邏輯。彭博社的報道顯示,多家對沖基金在2020年市場劇烈波動期間,都依靠這種機制避免了災難性損失。一位基金經理坦言:“在極端市場環境下,不虧錢比賺錢更重要。”
![]()
在自動駕駛領域,Waymo等公司的 “責任敏感安全” 模型要求車輛在任何情況下都不得為避免事故而采取違反交通規則或危及他人的操作。公司工程師在接受《麻省理工科技評論》采訪時解釋道:“我們的AI首先要遵守交通規則,其次才是應對突發情況。”
在法律輔助場景,AI系統的設計同樣遵循著明確的能力邊界。斯坦福大學的一份研究報告指出,這些系統可以提供類似的案例參考和風險因素分析,但絕不能給出具體的判決建議——最終裁量權必須保留在人類法官手中。
05新創新范式:在約束中創造價值
醫療AI的實踐正揭示一個逐漸清晰的行業共識:在那些風險不可逆的關鍵領域,衡量AI系統的標尺正在悄然改變。系統的核心價值不再僅僅取決于 “它能多高效地運行”,而越來越偏向于 “它能多可靠地停止”。這種對“主動設限”能力的追求,正在重新定義多個前沿行業的競爭邏輯。
這一系列變化正將企業的創新方向推向一個更深刻、更根本的層面。創新的焦點正在從追求模型在理想狀態下的 “峰值表現”,轉向構建系統在最惡劣情境下的 “底線保障” 。市場的競爭邏輯也從簡單比拼 “功能廣度” 的軍備競賽,演進為如何清晰定義并讓人信服“責任邊界”的信任博弈。與此同時,優秀的產品設計不再只關注優化日常的“交互體驗”,而必須深思熟慮地規劃在關鍵決策點,如何讓人類專家能夠平滑、無感地介入并承擔責任的“接管流程”。
這場轉變的深層本質,是一場價值觀的工程化革命。它將“安全”、“責任”、“倫理”這些曾經抽象、滯后的價值理念,轉化為具體、可測試、可迭代的工程特征,并將其前置到產品設計的源頭。最終,企業向市場交付的將不再僅僅是提升效率的技術工具,而是一份完整、可信、可托付的風險管理方案。在這個范式下,最堅固的商業護城河,正是由最精密的“剎車系統”構筑而成。大智知止,明者善約。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.