與AI殺死軟件相比,一個更為重大的問題終于浮現了:AI能否自主決定對人類發起致命的攻擊。
AI最大的應用場景,其實是在軍事領域——它可能用來自主決定對人類的致命攻擊。大國手中掌握的AI技術,正在逼近這個邊緣。
Anthropic公司的大模型Claude被用于美國軍方抓捕委內瑞拉前總統尼古拉斯·馬杜羅的行動中,該軍事行動包括對首都加拉加斯的多個地點的轟炸。
一般來說,在這類行動中,Claude用來支持Palantir公司,這是一家國防部和美國安全與執法部門的AI供應商。
突襲行動后,Anthropic想搞清楚,在這類涉及到致命攻擊的軍事行動中,Claude是如何被使用的。結果,他們最關心的問題都被回避了。除了就嚴格技術問題進行的例行討論外,沒有與任何行業合作伙伴(包括Palantir)討論過Claude在具體行動中的使用情況。
Anthropic也不愿意談及Claude被用于什么具體的軍事場景——不管是不是機密的,卻聲稱任何民營或者政府的使用,都要遵守其使用政策(Usage Policy),并且與合作伙伴密切合作,以確保遵守。
![]()
Claude的使用政策節選, 來源:Anthropic官網
Anthropic于2025年夏與五角大樓簽署了個價值2億美元的合同,其創始人阿莫迪(Dario Amodei)一直公開表示他最擔心的兩件事:AI自主決定的致命行動,以及對本國公民的大規模監控。但美國國防部長赫格塞斯(Pete Hegseth)表示,五角大樓不會采用不能打仗的AI。之前,OpenAI與Gemini合作,開發了一個面向軍方人員的平臺,是一個軍方定制版的ChatGPT。
本周二上午,赫格塞斯與阿莫迪在五角大樓舉行會議。阿莫迪要求五角大樓采取適當的措施滿足他的兩個條件,但赫格塞斯堅持合法使用,雙方不歡而散,赫格塞斯隨即發出了威脅。
如果Anthropic在周五下午5點01分前未能與國防部達成一致,赫格塞斯稱將援引《國防生產法》,強制軍方使用Claude;并將Anthropic列為供應鏈風險企業,此舉將危及其政府合同,而且將可能會影響美國所有政府項目承包商與Anthropic的合作。
五角大樓的憤怒,突顯出Claude大模型對于軍方的重要性。Claude目前是唯一在軍事機密系統中運行的商業模型,而且雙方已經展開合作了,那他們為什么鬧到要翻臉的地步?我們專門問了下Claude自己,回答如下:
矛盾的核心在于由誰來控制AI “安全護欄”。五角大樓希望加入一條籠統的“所有合法用途”條款——意味著軍方可以將 Claude 用于任何法律允許的用途,而 Anthropic 無權對具體用例說“不”。Anthropic 已同意允許廣泛的軍事用途,但明確劃出了兩條紅線:不會允許 Claude 被用于對美國公民的大規模監控,也不會允許 Claude 被用于全自主武器(例如無需人工最終決策就能開火的無人機)。阿莫迪曾公開撰文表示,他最擔心的是一小群人能夠在不需要其他人配合的情況下“操縱一支無人機軍隊”。
五角大樓同時與埃隆·馬斯克的 xAI 公司簽署了一份協議,以將其 AI 模型 Grok 引入機密網絡——xAI 毫無附加條件地接受了“所有合法用途”的要求。然而,官員們私下承認,在最關鍵的一些應用上(包括進攻性網絡能力),Claude 被認為比 Grok 更為出色,替換 Claude 將是一項龐大且艱巨的工作。
本質上,這場風波是一個試金石,它將定義未來若干年 AI 在國家安全領域中的角色:私人 AI 公司能否堅持對其技術應用設定道德邊界,還是最終由政府來一錘定音?
彼得.蒂爾、馬斯克等PayPal黑幫,硅谷的自由意志義義者圈子,及其安插在白宮及相關部門的官員,一直對Anthropic不滿,阿莫迪公開主張對AI公司進行監管,被這些“加速主義”者視為意識形態上的反對者。
阿莫迪公開表達的擔心是,由前沿人工智能控制的自主致命武器,將比大多數人預想的更快出現,但目前的模型尚未為此做好準備。對Anthropic而言,這些問題關乎原則。其他前沿實驗室的研究人員也愿意秉持類似原則。
此時,馬斯克的xAI站出來了,很快與五角大樓達成了合作。實際上,在SpaceX與xAI合并之后,已經有一批華人聯合創始人和技術骨干宣布離開xAI,馬斯克攻擊阿莫迪對華的鷹派言論,試圖把種族視角的注意力,轉向其競爭對手。
前白宮科技政策辦公室高級政策顧問、《AI行動計劃》參與起草者之一鮑爾(Dean W. Ball)認為,對于美國國防部而言,也有一個原則問題:軍方對技術的使用應始終僅受美國憲法或法律的約束。或許有人會對此提出異議(政府也像其他人一樣簽訂合同),但這一原則本身是合理的。由一家私營公司來監管軍方對人工智能的使用,聽起來也不太妥當。他認為,軍方有三種選擇:
1. 取消與Anthropic的合同,并尋找其他(理想情況下是幾家)前沿實驗室合作,如xAI。
2. 將Anthropic認定為供應鏈風險,這將禁止所有其他國防部供應商(即美國大部分上市公司)在履行國防部合同時使用Anthropic的技術。據我所知,這項權力僅用于對付外國敵對公司。啟用這項權力將使Anthropic公司損失慘重——甚至可能相當慘重——并讓投資者對該公司是否值得投資進行下一輪擴張產生極大的懷疑。資金原本就是一大制約因素,而這項權力更是雪上加霜。對于Anthropic公司而言,這可能是生死攸關的選擇。
3. 他們可以啟動《國防生產法》第一章,該法案旨在戰爭和緊急情況下對經濟進行指揮和控制。這在法律上非常模糊,恕我直言,我相當肯定此舉會對政府產生反作用,最終導致法院限制《國防生產法》的使用。
鮑爾認為,方案1是最佳選擇。“這一點毋庸置疑,我本人也和國防部一樣,對私營企業控制軍方技術使用這一原則性問題深表擔憂。”對Anthropic這樣的企業發出威脅,會對美國的商業環境造成了損害。如果真的懲罰了Anthropic公司,這將是地球上任何政府所能想到的最嚴厲的人工智能監管措施,而這一切都出自一個標榜強烈反對人工智能監管的特朗普政府之手。“這就是現實。一個人的規章制度可能是另一個人的國家安全必需品。”
在大國地緣競爭的時代,AI被視為一種勝負手級別的技術,國運級的技術。冷戰時期,超級大國的核武器起到了這樣的作用,但最終建立起了一整套控制風險的機制,包括大國都建立確保互相摧毀的核武器庫,以一種恐怖均衡約束彼此不敢動用核武器,并且建立了軍控和核查機制,核不擴散機制,努力讓原子能可以和平利用,等等。
AI與核武器不同,它正在迅速走向自主決策 ,進入到人類難以控制的境地,可以控制大大小小的系統,它可以應用在無數人類難以控制的場景中,包括戰場和戰爭中,它有可能獨自做出決策和采取行動。而且,人類手中一旦有了威力巨大的武器,恐怕最終都會用的。
等到到五角大樓本周五下班時,看下會發生什么事情吧。
參考:
https://www.anthropic.com/legal/aup
https://www.wsj.com/politics/national-security/pentagon-used-anthropics-claude-in-maduro-venezuela-raid-583aff17
https://www.nytimes.com/2026/02/24/us/politics/pentagon-anthropic.html?unlocked_article_code=1.OlA.qJam.PlK1o8jreQD4&smid=url-share
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.