![]()
2026年2月,聯合國在巴黎召開全球AI峰會,多國領導人就人工智能監管框架的緊迫性展開討論。峰會期間流傳著一句引發廣泛共鳴的話:"我們已經開始信任AI做出生死攸關的決定,但人類仍然不敢挑戰AI的選擇。"
這句話,精準刺穿了當今人機關系中最危險的一道裂縫。
從醫療診斷到戰場目標:AI決策的邊界在哪里
AI參與生死決策,已經不是未來時態。
在醫療領域,AI系統正在輔助腫瘤科醫生判斷化療方案,協助急診室分診系統決定哪名患者需要優先救治。在道路交通領域,自動駕駛系統的算法必須在毫秒內"選擇"事故中最優的應對路徑,這實質上是一種生死計算。在軍事領域,AI決策支持系統正越來越深入地介入目標識別、交戰建議乃至打擊授權的鏈條之中。
劍橋大學于2026年2月舉辦的一場辯論,其議題直白到令人不安:"AI是否應該被允許對人類生命做出決定。"
這道問題沒有標準答案,但它的提出本身,已經說明人類社會正在逼近一個需要給出答案的歷史節點。
支持者的邏輯并不難理解。AI在某些場景下的表現已經超越了人類的平均水平,醫學影像AI在特定癌癥檢測上的準確率高于資深放射科醫生,流行病預測模型的精度遠超人類專家的經驗判斷。如果算法能夠拯救更多生命,為什么要因為"必須由人做決定"這一原則而放棄這種效率?
但這一邏輯鏈條存在一個根本性的斷裂:準確率不等于道德合法性。
當一個系統做出影響人類生死的決定時,不僅要問"它做對了嗎",更要問"誰對這個決定負責"。在人類決策體系中,責任鏈條是清晰的——軍事指揮官對打擊命令負責,醫生對診斷方案負責,法官對判決負責。而一旦這個決定被外包給算法,責任鏈條就會在技術的復雜性中消失。
"一臺機器把人簡化為一個被擊殺數據點的工具,這是不可接受的,"致力于禁止殺手機器人的國際倡導組織"Stop Killer Robots"在今年向多國政府提交的政策建議中如此寫道,"各國必須立法禁止機器做出生死決定。"
人類監督的悖論與出路
問題的棘手之處,恰恰在于"保留人類監督"這一原則在實踐中往往淪為形式。
自動化決策系統的速度,往往遠超人類的認知處理能力。當一架防空系統在毫秒內鎖定目標,當ICU的AI在幾秒鐘內發出放棄搶救建議,理論上"在場監督"的人類,事實上根本沒有時間對算法輸出進行實質性審查,最終只能按下確認鍵,成為橡皮圖章式的"監督者"。
OpenAI創始人薩姆·奧特曼(Sam Altman)在巴黎峰會上坦言,AI監管"迫切需要推進",但他同時警告,過度的監管將扼殺創新能力,讓另一個國家率先掌控這項技術。這種兩難困境,是當前所有大國政府面對AI監管問題時共同的心理結構。
真正可行的解決路徑,可能并不在于"是否讓AI參與",而在于"在哪些環節、以什么方式設定不可逾越的人類節點"。拒絕讓AI參與任何生死決策,在技術已經深度嵌入現實的今天已經不現實。但允許AI擁有最終決定權,則是對人類文明價值秩序的根本性讓渡。
在這兩個極端之間,人類社會需要找到一條精確劃定邊界的路。這條路的設計,將是未來十年最重要的治理挑戰之一。
生死的權柄,終究不能交給一行代碼。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.