特朗普一聲令下,Anthropic將被美國官方全面“封殺”!
這家估值3800億美元的AI獨角獸因拒絕合作,被五角大樓列為“國家安全供應鏈風險”,與政府關系破裂。而在資本市場,它卻是橫掃軟件業的“AI滅霸”,25天四次新品發布讓一眾科技巨頭市值暴跌。
在技術擴張之際,它對中國AI技術的指控,又讓自己陷入輿論泥潭。
估值3800億美元的AI獨角獸Anthropic一夜之間被特朗普和五角大樓拉進了“黑名單”。
當地時間2月27日(周五),特朗普一聲令下要求全美政府機構停用其技術,五角大樓更是將其列為國家安全供應鏈風險,這場因拒絕AI軍事應用的“硬剛”,讓這家公司與美國官方的合作徹底破裂。
同時,近一個月,Anthropic在資本市場連續掀起風暴。它25天四度發布新品“血洗”美股軟件股,成為讓IBM、湯森路透等巨頭市值暴跌的“AI滅霸”。另一邊,它高調指控中國AI企業“技術竊取”,自身卻背著15億美元版權侵權的“黑歷史”,遭馬斯克怒批“賊喊捉賊”。
Anthropic正深陷多重風暴的中心。
![]()
“硬剛”五角大樓
Anthropic被特朗普“封殺”
當地時間2月27日,美國總統唐納德?特朗普表示,他已下令美國所有政府機構“立即停止”使用Anthropic的技術。
特朗普在“真實社交”平臺發文稱,對于國防部等“在不同層級使用Anthropic產品”的機構,將設置六個月的逐步停用過渡期。
![]()
特朗普在“真實社交”平臺的貼文
特朗普下達命令后不久,美國國防部長皮特?赫格塞思在X平臺發文稱,因Anthropic拒絕遵守其技術使用要求,他已下令五角大樓將Anthropic“認定為國家安全供應鏈風險”。
周五晚間,Anthropic發表聲明稱“我們認為,這一認定既缺乏法律依據,也會為任何與政府談判的美國公司開創危險先例。”
2025年7月,Anthropic與五角大樓簽署了一份價值2億美元的合同,但是該公司希望確保其AI模型不會被用于完全自主武器或對美國民眾的大規模國內監控。
五角大樓強烈拒絕了這一要求,并為Anthropic設定了美國東部時間周五下午5點01分的最后期限,要求其同意允許美軍將該技術用于所有合法用途。該期限已過,雙方仍未達成協議。
赫格塞思在X平臺發表聲明稱:“Anthropic的立場從根本上違背了美國原則。”“因此,該公司與美國武裝部隊及聯邦政府的合作關系已被永久改變。”
特朗普在“真實社交”平臺發文稱:“Anthropic的自私自利正將美國人的生命置于險境,讓我們的軍隊陷入危險,危及我們的國家安全。”
近幾周,馬斯克在其社交平臺X上多次抨擊Anthropic,周五發文稱該公司“仇視西方文明”。
Anthropic CEO Dario Amodei在2月26日的博文中明確表示,無法接受國防部看似妥協但實則讓安全護欄形同虛設的合同條款,并強調Anthropic堅持“兩條紅線”:不得用于“對美國人進行大規模監控”以及不得用于“完全自主武器”。Amodei寫道:“(美國國防部的)這些威脅不會改變我們的立場:我們無法昧著良心同意他們的要求。”
![]()
Anthropic首席執行官Dario Amodei 圖片來源:視覺中國-VCG111624395088
周五, OpenAI表示與Anthropic持有相同的“紅線”立場。
OpenAI首席執行官薩姆?奧爾特曼在一份備忘錄中寫道:“我們長期以來認為,人工智能不應被用于大規模監控或自主致命武器,在高風險自動化決策中,人類應始終參與其中。”OpenAI去年也與五角大樓簽署了一份價值2億美元的合同。
然而,在“硬剛”五角大樓的兩天前,始終將安全奉為圭臬的Anthropic對其安全研發限制作了調整。
2月24日,該公司低調發布《負責任擴展政策》(Responsible Scaling Policy, RSP)的3.0版本,將此前被視為“硬性紅線”的暫停訓練承諾徹底刪除。之前,這一承諾明確要求模型能力觸碰到預設的危險閾值(比如,足以協助生物武器研發的科學理解能力),公司必須暫停訓練新模型,直到安全措施跟上。而這道安全防護如今卻被替換為以路線圖、風險報告與外部評審為核心的透明度機制。這相當于從“做不到就不許動”的剛性約束變成了“邊做邊說”的靈活框架,拆掉了自我限速的安全之鎖。
對此,公司僅解釋稱,“隨著我們逐步接近更高等級的AI安全級別,事先精確界定所需的具體安全防護措施將變得愈發困難。”
實際上,Anthropic的安全底線松動,早有預兆。
2月9日,Anthropic安全部門主管Mrinank Sharma在X平臺上宣布離職,并直言在日益增長的經濟壓力下,公司的部分行為已無法契合其個人價值觀,他無法在日常工作中始終如一地踐行這些價值觀。他在辭職信中寫道:“世界正處于危險之中。這危險不僅來自AI或生物武器,而是來自此刻正在上演的一系列相互關聯的危機……我反復看到,真正讓我們的價值觀指導我們的行動是多么困難。我看到了這一點,不僅在我自己身上,也在組織內部,我們不斷面臨著放棄最重要事物的壓力,而且在更廣泛的社會中也是如此。”
![]()
Mrinank Sharma在X上發布的辭職信
![]()
25天四連擊:Anthropic成軟件業“AI滅霸”
一邊是與美國官方的正面“硬剛”,另一邊Anthropic卻在市場上展開凌厲的產品攻勢,成為令一眾巨頭聞風喪膽的“AI滅霸”。
第一擊:法律服務概念股遭“血洗”
1月30日,Anthropic推出一款面向企業法務的AI工具,能夠自動處理合同審查、合規檢查等核心法律工作。消息在2月3日觸發市場恐慌,法律檢索服務商湯森路透股價暴跌16%,法律科技公司CS Disco下挫12%,標準化法律服務商LegalZoom大跌20%。
軟件股也受到波及,標普500軟件與服務指數大跌近4%,高盛編制的一籃子美國軟件股下跌6%,后者創下自2025年4月份關稅引發拋售潮以來的最大單日跌幅。
第二擊:金融數據巨頭遭遇暴擊
2月5日,旗艦模型Claude Opus 4.6發布。其編碼、財務分析、研究和文檔處理能力,讓金融數據巨頭FactSet Research Systems Inc.股價應聲下跌7.21%,湯森路透盤中一度跌超8.5%,創2020年3月份以來盤中新低。
![]()
圖片來源:Anthropic官網截圖
市場的邏輯簡單而粗暴:既然AI能完成這些工作,為什么還要為傳統軟件付費?
市場調研機構Analytics Insight指出,越來越多的開發者將Claude等模型直接嵌入自家產品中,這種做法可能削弱傳統SaaS廠商在數據分析和研究工作流上的既有優勢與用戶黏性。
第三擊:金融數據巨頭“閃崩”
2月21日,能高效掃描代碼庫漏洞并自動生成補丁的Claude Code Security發布。當天,網絡安全龍頭CrowdStrike的股價跌超6.5%,Cloudflare和Okta等隨之跟跌,總市值一夜蒸發超100億美元。Cybersecurity ETF下跌了4.9%,收盤時達到自2023年11月以來的最低點。
第四擊:IBM的“噩夢”
2月23日,Anthropic宣布,Claude Code能夠自動化完成 COBOL 現代化改造中最復雜的代碼探索與分析工作。這直接威脅到了IBM的核心業務之一——大型主機系統。消息傳出,IBM股價當天大跌13.2%,創下自2000年10月以來的最大單日跌幅。
![]()
圖片來源:Anthropic官網截圖
短短25天,Anthropic的四次產品發布,精準打擊了多個垂直行業的痛點,也讓其成為軟件業的“AI滅霸”。
國內SaaS行業知名創業顧問吳昊對《每日經濟新聞》記者(以下簡稱每經記者)表示,過去,代碼能力是軟件行業的重要壁壘,打造一款SaaS產品需要巨額研發投入和長期技術積累,而AI工具的普及讓SaaS公司的技術壁壘大幅降低。“以前做一個SaaS產品可能需要融2000萬元,雇20人開發一年;現在兩個人在車庫里用AI工具,兩個月可能就做出來了。”
不過,他同時表示,“軟件行業不會消失。AI會深刻改造SaaS,使其持續進化,但企業對于流程管理、協同辦公等復雜軟件的需求將長期存在。除非通用人工智能(AGI)出現,否則當前以人類決策和協作為核心的企業軟件模式不會被完全顛覆。然而,AI將提升軟件公司的內部效率,并可能導致企業相關崗位的人員減少。”
英偉達CEO黃仁勛也直言,認為AI會取代軟件是“不合邏輯的”,AI并非重新發明軟件,而是學會使用軟件。
在市場對這場關于“顛覆”的討論達到頂峰時,Anthropic也迅速調轉船頭,從“破壞者”變身為“合作者”。
2月24日,Anthropic發布了面向Claude Cowork智能體的10款全新AI插件工具,覆蓋投資銀行、財富管理、HR、私募股權(PE)及工程設計等多個垂直場景。但這一次,它選擇與行業巨頭并肩而立。其合作伙伴名單上,出現了此前因其產品而股價大跌的FactSet和湯森路透,以及Salesforce、普華永道等公司。
這一戰略轉向立即獲得了市場的積極反饋。湯森路透股價在合作消息公布后,盤中漲幅一度超過14%,創下2008年10月以來最大盤中漲幅;FactSet也上漲了5.9%。
![]()
“賊喊捉賊”:指控中國AI
難掩15億美元版權“黑歷史”
就在Anthropic的技術擴張之際,這家AI獨角獸對中國AI技術的指控,又讓自己陷入輿論泥潭。
2月24日,Anthropic發布博客文章,高調指控DeepSeek、月之暗面和MiniMax“竊取”其旗艦模型Claude的能力,并稱之為“工業規模蒸餾攻擊”。
![]()
圖片來源:X平臺截圖
文章聲稱,這三家公司利用約2.4萬個虛假賬號,與Claude進行了超過1600萬次對話,以訓練自己的模型。
然而,這一指控立刻引來了廣泛質疑。
倫敦大學學院(UCL)名譽教授、計算機科學家彼得?本特利(Peter Bentley)博士告訴每經記者,“使用大模型來訓練小模型并不罕見。在‘蒸餾’過程中,我們利用‘教師’模型產生大量輸出,并以此來訓練‘學生’模型。這并不是在復制教師模型的內部權重,而是在嘗試復現其行為。”
本特利表示,“通過API模型輸出訓練模型,可以復制行為和模式,但這也取決于新模型的訓練質量,它在處理許多輸入時可能會表現出與原模型高度相似的行為。由于沒有原始模型的訓練數據,它永遠無法完全克隆出那個模型。通常,新模型還會加入額外的訓練數據,所以兩者無論如何都不會完全相同。”
實際上,蒸餾技術被全球AI公司普遍使用,包括OpenAI、谷歌、Meta等巨頭都在自家模型上應用。就連Anthropic在指控三家中國公司后,補充了一句“蒸餾法是合理的:人工智能實驗室利用蒸餾為客戶創建更小、更便宜的模型。”
埃隆·馬斯克嘲諷Anthropic“賊喊捉賊”。2025年9月,Anthropic因大規模從LibGen、PiLiMi等盜版網站非法下載超700萬本受版權保護的圖書,并使用這些盜版書籍訓練AI模型,被迫向以作家安德里亞?巴茨(Andrea Bartz)為首的全球作家集體支付了15億美元和解金。
馬斯克直言:“Anthropic大規模竊取訓練數據,并為此支付了數十億美元的賠償金。這是不爭的事實。”
在Anthropic指控推文的下方,網友也是猛烈“開炮”:“AI實驗室一邊通過公開API讓別人使用模型,一邊又反對他人對其進行蒸餾,這真是極其諷刺”;“‘我可以未經許可使用別人的數據,但誰也別想不打招呼就用我的”“你們訓練Claude的時候,不也是用了偷來的數據嗎?”
(免責聲明:文章內容和數據僅供參考,不構成投資建議。投資者據此操作,風險自擔。)
記者|蘭素英 宋欣悅
編輯|何小桃 蘭素英 易啟江
校對|段煉
|每日經濟新聞 nbdnews 原創文章|
未經許可禁止轉載、摘編、復制及鏡像等使用
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.