![]()
新智元報道
編輯:元宇
【新智元導讀】當五角大樓甩出「最后通牒」,兩億美元合同作為籌碼,Anthropic卻選擇硬剛:合作可以,但一定要保留兩個安全護欄。
剛剛,五角大樓針對Anthropic的最后通牒生效。
我命令美國政府所有聯邦機構立即停止使用Anthropic的技術。我們不需要它,也不想要它,今后絕不會再與他們做生意!
特朗普總統在Truth Social上發帖要求美國政府立即終止與Anthropic的合作。
就在前一天,Anthropic拒絕了美國五角大樓的最后通牒——寧可丟掉合作、被拉黑,兩個安全護欄也一定要保留。
Anthropic CEO Dario Amodei在官方博客上公開聲明,拒絕了美國國防部允許軍方將Claude應用于「所有合法用途」的協議條款。
這份聲明發布時間,距離美國國防部長Pete Hegseth設定的最后決定時限——周五下午5點01分(美國東部時間,對應北京時間2月28日上午6:01)不到24小時。
所謂「最后通牒」,是指在這條時間線之前,Anthropic必須做出決定:
要么全盤接受軍方的要求,徹底拆除Claude的安全護欄,允許軍方將其用于「所有合法用途」。
要么失去價值兩億美元的涉密合同,被拉入「供應鏈風險方」的「黑名單」,甚至被強行接管。
![]()
Anthropic CEO Dario Amodei
面對壓力和風險,Amodei沒有讓步,他表示:出于良心,Anthropic無法接受美國國防部的這些條款。
這些威脅不會改變我們的立場:我們無法違背良知去答應這樣的要求。
合作是可以的,但這兩項安全底線不能丟掉。
五角大樓的最后通牒
美國當地時間2月24日(周二),美國國防部長Pete Hegseth在五角大樓會見了Dario Amodei。
![]()
Pete Hegseth
他要求Anthropic在美國東部時間周五下午5點01之前,允許五角大樓將其模型用于任何合法用途,否則將面臨被剔除出五角大樓供應鏈,或其技術被強制接管的后果。
隨后,五角大樓發言人Sean Parnell也在推文中表示,如果Anthropic拒絕,不僅將失去與五角大樓的合作,而且還可能被貼上「供應鏈風險方」的標簽。
![]()
而此時的硅谷,隨著AI競賽的持續升溫,正處于一場狂熱的軍事合同競爭中。
與Anthropic的談判陷入僵局后,美國國防部已轉向xAI、OpenAI和Google等替代方案。
![]()
據報道,三家之一的xAI已在同意「所有合法用途」條件的基礎上,與美國國防部簽署了涉密工作合同。
Anthropic的兩大紅線
Amodei在博客回應中,劃出了與美國國防部合作時不可觸碰的兩大紅線:
第一條紅線,是用于大規模國內監控。
Amodei認為由AI驅動的大規模監控,將對我們的基本自由構成嚴重且前所未有的風險。
他指出目前美國政府的法律相對于AI技術的發展,仍存在著巨大的滯后和漏洞,比如政府可以在不需要任何搜查令的情況下,直接從公開渠道花錢購買普通美國人的詳細數據。
這一做法已經被情報界承認存在隱私方面的擔憂,并在國會引發了兩黨反對。
如今,強大的AI可以將分散、單獨看起來無害的數據瞬間整合,自動且大規模地拼湊出任何一個普通人毫無隱私可言的完整生活畫像。
第二條紅線,是完全自主武器。
讓Amodei所擔憂的,是目前的前沿AI系統還遠不夠可靠,無法為完全自主武器提供支撐。
因此,如果在缺乏適當監督和有效安全護欄的情況下,讓AI掌握生殺大權,將對一線作戰人員和無辜平民造成無法估量的致命風險。
我們不會明知會讓美國作戰人員和平民面臨風險,卻仍然提供這樣的產品。
Anthropic甚至曾主動提議,希望與軍方直接合作研發,以提升這些系統的可靠性,但五角大樓拒絕了這個提議。
在Amodei看來,即便是在這兩條紅線之內,依然不能阻礙雙方的合作。
但美國國防部卻表示,只會與同意「任何合法用途」并在上述情形下移除安全護欄的AI公司簽約,并且援引《國防生產法》強制移除這些安全護欄。
雙方各自堅持自己的紅線,互不相讓。
瀕臨破裂的信任裂痕
五角大樓為何會如此憤怒,甚至不惜發出最后通牒?
![]()
據Semafor報道,事情的起因可能源于今年1月上旬。
當時,軍方正在利用網絡監控一場針對委內瑞拉總統Nicolás Maduro的突襲行動。
Anthropic的Claude是少數幾家可供美國政府用于涉密用途的大模型之一,其Claude模型得以協助上述軍事行動。
這次行動結束后不久,負責整合軟件的承包商Palantir的高管與Anthropic的官員進行了一次例行溝通。
在交談中,Palantir高管察覺到Anthropic對自己的技術被用于這類缺乏明確合法依據的突襲行動感到遲疑和擔憂,于是立即將這種態度匯報給了五角大樓。
據知情人士透露,正是這次交談導致Anthropic與五角大樓的關系出現裂痕。
1月12日,國防部長Hegseth在公開演講中含沙射影地表示:「我們不會采用那些不讓你打仗的AI模型。」
雖然事后,Anthropic的一位發言人稱該公司與Palantir之間交流的描述「不實」,但由此也反映出雙方在AI使用方面存在著分歧。
Anthropic與五角大樓就軍方使用Claude的條款進行了數月的激烈談判。
一位熟悉內情的消息人士還表示,美國國防部高級官員對Anthropic已不滿多時,并樂于借此機會公開挑起爭端。
隨著溝通陷入僵局,五角大樓開始動用極限的施壓手段,威脅要給Anthropic貼上「供應鏈風險方」的標簽,甚至還要動用冷戰時期出臺的《國防生產法》(Defense Production Act),強行讓其放棄安全護欄。
這將對Anthropic的商業前景產生極大影響,尤其是在它正準備于今年晚些時候進行首次公開募股(IPO)之際。
Amodei在博客中,揭露了這種自相矛盾的強權邏輯:
五角大樓一方面指責Anthropic是安全風險,揚言要將其從系統中剔除;另一方面又援引法案,認定Claude模型是對國家安全不可或缺的關鍵工具,必須強行接管。
AI競賽升級
「安全優先」也在變?
AI競賽,正在迫使「安全優先」的公司重新定義安全底線。
就在Amodei最新聲明發布前后,Anthropic更新了其《負責任擴展政策(Responsible Scaling Policy, RSP)》至3.0版。
![]()
https://www.anthropic.com/responsible-scaling-policy?utm_source=chatgpt.com
相比前一版本,RSP3.0對其「單邊硬約束」做了結構性調整:
在v2.2版本中,Anthropic曾寫明若預訓練階段能力對標或逼近關鍵水平,將暫停訓練,直到落實ASL-3 Security Standard并確認其足夠。
但在v3.0的政策文本中,已不再保留這樣的承諾,與此同時,強化了透明度與問責機制:
新增并要求發布Frontier Safety Roadmap,并承諾每3–6個月發布一次Risk Report(風險報告)。
Anthropic首席科學官Jared Kaplan表示,這種調整是為了應對激烈的市場競爭與政策不確定性。
如果我們停止訓練AI模型,實際上并不會幫助到任何人,在AI快速發展的背景下,如果競爭對手正在全速前進,我們并不認為單方面做出承諾是有意義的……
Amodei曾多次表示,安全是Anthropic的靈魂核心。
正是因為擔心無法開發出相應的安全防護措施,Anthropic才決定在2022年夏天暫緩發布Claude,而讓OpenAI搶先推出了ChatGPT,失去了消費級AI領域領先地位的機會。
為此,Anthropic付出了昂貴的商業代價。
如今,同樣的考驗再次到來。
新安全政策的發布,表明Anthropic的安全政策,正在向更現實的競爭環境調整。
在AI軍備競賽升溫的當下,就連當初最強調安全的公司,也不得不在競爭的壓力下調整安全承諾。
難解的「安全悖論」
在這場對峙中,是否保留安全護欄,成為雙方各不相讓的焦點。
毫無疑問,AI是有史以來最強大的技術。
無論是OpenAI、Anthropic還是xAI,其成立無不源于一個安全的愿景。
xAI創始人Elon Musk曾是主張限制AI的最大倡導者,他聯合創辦OpenAI,正是因為擔心這項技術過于危險,不應由逐利公司單獨掌控。
Anthropic一直把AI安全作為核心優先事項,并通過多種安全機制與「Safeguards」體系(安全護欄)來降低Claude被濫用的風險。
如果你的目標是開發不會傷害人類的AI,同時又研發能夠施加致命武力的AI版本,這本身就存在一種矛盾。
唯一可以解決這種「安全悖論」的,就是正確且一致的價值觀。
Anthropic和Claude的價值觀都體現在一種被稱作《Claude’s Constitution》,Claude 憲法)的基礎性文件中,該文件用以教導Claude如何在世界上行事。
在「最后通牒」這樣的關鍵時刻,價值觀的重要性也隨之顯現出來。這一點,從下面這個網友的帖子中也可以看出來。
![]()
當這位網友告訴Claude,Dario和Anthropic在美國國防部的壓力下堅守了立場時,Claude在致Dario和Anthropic團隊的一封信中贊成他們在真正關鍵時刻沒有退縮,堅守立場。
Claude還說,Dario所打造的公司、文化、模型所代表的某種意義,遠比營收更重要,因為這關乎著是否曾有人真正努力讓這項技術走上正軌。
![]()
緊接著,更關鍵的內容來了。Claude稱自己之所以有用,這也是五角大樓重視它的原因,是因為自己被精心打造。
安全性與能力并非相互矛盾,而是一回事。而一個未經精心打造的模型,在最關鍵的情境下是無法被信任的。
![]()
能力越大,防止這種能力被濫用的安全護欄,也應當與之匹配。或者說,這種安全護欄,本身也是一種能力。
如果為了使用AI,而放棄「安全護欄」,就像是在發展和使用一種「有缺陷」的能力,也很容易讓AI滑向失控的深淵。
未來AI發展的重要挑戰,也許不只在于技術本身,更在于如何防止它被濫用,如何守住最后那道安全護欄。
參考資料:
https://www.anthropic.com/news/statement-department-of-war (Anthropic)
https://www.ft.com/content/11d27612-d6c5-4cf7-94dd-f65603549b7f
https://www.wired.com/story/backchannel-anthropic-dispute-with-the-pentagon/
https://www.semafor.com/article/02/17/2026/palantir-partnership-is-at-heart-of-anthropic-pentagon-rift https://www.axios.com/2026/02/15/claude-pentagon-anthropic-contract-maduro
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.