![]()
撰文|畫畫
剛剛過去的五天之內,發生了四件事:
2月27日,特朗普簽署行政令,要求所有聯邦機構六個月內停用Anthropic Claude,理由是國家安全風險。
2月28日凌晨,美以聯軍對伊朗發動精確打擊。德黑蘭的夜空被火光點亮,伊朗總統府、最高領袖官邸附近區域、情報與國家安全部等目標相繼被摧毀。
3月1日,《華爾街日報》披露了一個更隱秘的事實,那款剛剛被特朗普“封殺”的Claude,早已深度接入美軍機密網絡,且無法被替代。軍用定制版領先公眾版一到兩代,在此次行動中完成了情報評估、目標識別與作戰場景模擬,Claude沒有扣動扳機,但它規劃了扣扳機的位置、時間和方式。
3月3日,位于阿聯酋的AWS數據中心遭導彈襲擊,電力中斷,火光竄起。Claude的部分服務隨之大面積中斷。那個剛剛“參與”了戰爭的大腦,還沒來得及喘氣,就被戰爭的另一面擊中了。
![]()
這不是新聞事故的巧合,這是一場關于“誰控制AI,誰就控制戰爭”的權力游戲的第一次公開演出。
在這場戰爭里,國界的概念模糊了,就連“誰在打仗”這個問題本身,都變得無法回答。扣動扳機的有可能不再是人類,而是那個每秒進行數萬億次推理的“戰區Agent”。
2026年2月28日,人類戰爭史翻過了關鍵一頁。我們見證的不是一場中東沖突,而是第一場關鍵環節被AI決定的戰爭。
1、戰爭不再等人類想明白
要理解這場戰爭為什么可怕,得先聊聊老派的打法。
過去一百多年,戰爭中信奉的圣經叫“OODA環”:觀察、調整、決策、行動。
以前打仗,拼的是誰的環轉得快。偵察機拍到照片,送回總部,分析員看上半小時,討論十分鐘,最后飛行員飛過去扔炸彈。這個過程,快則十幾分鐘,慢則幾天。
但在2026年2月28日的這次打擊中,這個環消失了。取而代之的,是美國軍方所說的“端到端推理”。
根據多家外媒的報道,美軍部署的最新一代AI系統,已經不再是一個輔助軟件,而是一個擁有極高自主權的“戰場大腦”。數千個衛星傳感器、截獲的加密電信號、甚至是開源情報數據,像洪水一樣涌入模型。
模型不是在處理這些數據,而是在進行補全,在它看來,摧毀對方的防空雷達,并不是一個軍事命令,而是它在解決了如何以最小成本達成目標這個概率問題后,給出的一個必然的Token輸出。
這不只是快的問題,是質變。
更早的數據已經預示了這個方向。
2024年,美國陸軍的“Scarlet Dragon”系列演習中,Maven智能系統就已經能做到,用20人的團隊,完成2003年伊拉克戰爭時需要2000人才能完成的目標識別任務。目標識別和打擊的時間,從最初的12小時以上,壓縮到了1分鐘以內。
當時的目標是每小時處理1000個目標。而到了2026年2月,這套系統已經不再只是識別目標,而是生成決策。
在Agent戰爭的邏輯里,人類還沒反應過來,勝負已分。
2、硬件不值錢了,值錢的是那個大腦
這次打擊中,最讓軍事專家感到背脊發涼的,是導彈地位的下降。
過去,我們衡量一個國家的軍事實力,看的是你有多少枚戰斧巡航導彈,有多少架F-35。但2月28日之后,這個標準需要重寫了。
在Agent戰爭時代,硬件已經徹底插件化。
怎么理解?
你可以把現在的高精尖武器想象成一個U盤。U盤里裝什么藥、往哪兒飛,它自己說了不算,甚至連制造它的工廠也說了不算。它唯一的價值,就是能不能無縫接入那個統領全局的“戰區Agent”。
根據外媒報道,在針對伊朗的這次行動中,美以聯軍對伊朗防空系統進行了一場大規模的攻擊。
伊朗的防空系統雖然也升級了AI識別邏輯,但這恰恰成了它的阿喀琉斯之踵。美軍的Agent通過分析對方算法的識別指紋,生成了數萬個“邏輯完美”的虛假目標。
這些目標在對方雷達眼中,看起來完全符合真實戰機的飛行物理特征。
這就像是在給對方的AI腦子里瘋狂灌輸“幻覺”。伊朗的防御系統在幾秒鐘內陷入了無限遞歸的計算,它無法分清到底哪個是真、哪個是假。
最終,系統因為計算資源耗盡而直接宕機。
還有一個場景,在針對伊朗核設施的精確打擊中,以色列國防軍使用了一批看似過時的自殺式無人機。但詭異的是,這些無人機在空中展現出了極高的智慧。它們會自動分配任務,有的負責誘敵,有的負責中繼通訊,有的負責俯沖。
這背后的邏輯是,AI Agent正在實時重寫這些機器人的底層代碼。
實際上,只要算力足夠強大,哪怕是一架廉價的民用無人機,也能在Agent的調度下,打出頂級隱身機的戰略效果。
誰更有價值?顯然是那個大腦。
這也解釋了為什么現在全球最緊缺的戰略資源不再是石油,而是那幾家芯片巨頭生產的、能夠支撐前線實時推理的高端計算卡。
3、讓它想,想到死機為止
如果我們把視角拉得更近一點,看看德黑蘭的防御系統是怎么癱瘓的,你會發現更離奇的事。
傳統的電子干擾是靠功率壓制,就像是大聲喊叫讓對方聽不清。但這次,美軍玩的是邏輯過載,外媒將這種攻擊稱為物理層提示詞注入。
因為整個過程和黑客攻擊大模型的原理一模一樣,通過精心構造的輸入,讓對方的AI系統產生幻覺、陷入死循環、最終崩潰。
區別只在于,這次攻擊的不是一個聊天機器人,而是一個國家的防空系統。
根據網絡安全領域的研究,這種攻擊的邏輯比傳統電子戰恐怖得多。以往你要癱瘓一個雷達站,可能需要發射反輻射導彈,或者用強電磁信號燒毀它的電子元件。
現在呢?你只需要讓它想太多,想到宕機為止。
Agent攻擊的一個關鍵特征是無需人工干預。傳統的網絡攻擊需要黑客坐在電腦前,一條指令一條指令地敲。但Agent攻擊不同,AI系統可以自主完成從信息收集到漏洞利用的全過程。它能分析網絡拓撲,理解業務流程,自主決定如何向核心資產移動。
它不需要人類刻意去控制,因為它自己會思考。
更可怕的是速度。傳統攻擊中,從漏洞公布到被武器化利用,中間有一段緩沖期讓人去修補。但Agent攻擊把這個窗口壓縮到了15分鐘甚至更短,AI能讀取漏洞公告,自己寫代碼,自己驗證漏洞,比任何人類團隊都快。
在伊朗的案例中,美軍的Agent可能做了什么?
它可能分析出對方防空系統的算法弱點,生成了數萬個足以讓系統崩潰的目標,這些目標在對方的AI腦子里勾勒出了一個荒誕的景象。雷達顯示屏上瞬間出現了數萬架戰機,每架戰機的飛行特征、尾焰紅外信號、甚至是雷達散射截面都完美無缺。
這些目標在物理世界不存在,但在數據世界里,它們比真的還真。
對方的防御系統,要在非常短的情況下,去鎖定、去跟蹤、去計算這數萬個虛假目標的彈道,結果導致計算資源瞬間被無限循環的邏輯陷阱吞噬。
這不再是單純的信號干擾,而是一場算法層面的深度催眠。
正如《連線》雜志所評論的:在算法面前,傳統的鋼鐵洪流變得像透明人一樣脆弱。你以為你在防御,其實你只是在對方的提示詞里打轉。
4、當人類只剩下一個"同意"按鈕
然而,這種高效背后,藏著一個更深層的隱憂。那就是決策的非黑即白。
在本次行動中,美軍始終強調人類掌握最終開火權。但問題是,當AI在幾分鐘內完成了態勢感知、目標識別、路徑規劃、效果評估,人類指揮官手里那個開火權,還剩多少實際意義?
此時的人類,已經從指揮官退化成了一鍵確認的審批員。
更關鍵的是責任歸屬。
中國軍網的一篇分析文章提出了一個深刻的問題。當智能系統的決策邏輯呈現“黑箱化”特征,人類無法解釋其工作原理,一旦發生誤擊事故,責任是開發者的、操作者的、還是算法本身的?
這不是一個簡單的哲學討論。
在這次行動中,AI同步驅動了全頻段電子壓制與網絡滲透攻擊,癱瘓了伊朗邊境雷達與通信系統。整個過程由算法自動完成,人類只是在事后被告知結果。
我們正在把人類文明最后的底線,關于剝奪生命的最終決定權,交給一個連我們自己都解釋不清楚的統計模型。
5、算力不夠,連挨打的資格都沒有
這場戰爭也徹底改變了全球政治的規則。
以前我們談論地緣政治,看的是地理位置,是海峽,是礦產。但在2026年,出現了一個新的詞:主權推理權。
為什么美以能在這場對抗中維持壓倒性的優勢?不僅僅是因為武器先進,更因為他們的國防AI直接跑在全球最先進的超大規模集群上。
戰爭已經變成了一場赤裸裸的算力消耗戰。
你每發出一枚干擾信號,每進行一次軌跡預測,都在消耗昂貴的算力。這意味著,貧窮的國家將徹底失去戰爭的參與權。如果你沒有吉瓦級的能源供應,沒有最頂尖的推理卡陣列,你在算法戰爭面前,連成為對手的資格都沒有。
更值得警惕的是,這種算力霸權正在向私人巨頭集中。
當SpaceX與xAI合并、試圖構建天基算力主權時,國際電信聯盟等組織的監管真空被加速暴露。基礎設施權力以前所未有的速度向私人公司轉移,將大國科技乃至軍事競爭提升到了新的維度。
戰爭的門檻,已經被推到了一個主權國家難以負擔的高度。
2026年2月28日的這次打擊,本質上是高維文明對低維文明的一次降維清場。
更可怕的是,這種算力壟斷正在形成智能軍備競賽的馬太效應。
擁有先進AI的國家,可以用更低的成本完成更高效的作戰,而落后的國家,即使傾全國之力購買硬件,也只能在算法層面被降維打擊。
差距不是在縮小,而是在指數級擴大。
未來的戰爭,可能不再需要宣戰。當一個國家的金融系統、能源網絡、通信基礎設施都運行在AI調度之上,對方只需要一次精準的算法計算,就能讓整個國家在幾分鐘內陷入癱瘓。
而你甚至不知道是誰動的手。
6、今天調度導彈,明天調度你的工作
很多可能會覺得,德黑蘭的炮火離我們很遠,算法戰爭只是參與方的事。
但請記住,戰場永遠是技術下沉的第一站。
過去幾十年的技術史,一次次印證了這個規律。互聯網最初是美國國防部的高級研究計劃局項目,為了讓科學家們在核戰爭爆發后還能遠程通信。GPS原本是軍用衛星系統,1983年才向民用開放。
今天,Agent可以用來調度導彈,在幾分鐘內決定一個設施的存亡,明天,同樣的邏輯就會被用來調度全球的物流、金融市場、甚至是你的工作崗位。
戰爭的插件化,其實就是各行各業插件化的一次演練。當一個Agent可以代替指揮官去決策,它同樣可以代替CEO去決策,代替醫生去診斷,代替律師去辯護。人類作為決策主體的地位,正在一步步地崩塌。
更值得琢磨的是,就在行動前一天,特朗普政府剛下令六個月內逐步停用Claude。而這款曾標榜“安全向善、拒絕軍事應用”的大模型,早已突破倫理紅線,成為軍事打擊的核心工具。
當殺戮被簡化為算法參數,當戰爭的門檻被AI無限降低,人類文明的底線正在被飛速發展的技術擊穿。
《華爾街日報》在一篇報道結尾留了一句耐人尋味的話:
2026年的這場空襲,可能不是一段歷史的結束,而是人類作為地球管理者身份終結的起點。
我們創造了比我們更擅長生存和競爭的物種。
現在,我們得學著和它相處。
【版面之外】的話:
如果這場戰爭真的是Agent主導的,那么人類在最后按下批準按鈕的那一刻,批準的到底是什么?
是一個作戰方案?
還是一個AI已經完成了99%計算、只差最后一個確認動作?
2026年2月28日的德黑蘭上空,可能已經不是人類在決定誰生誰死。而是一個統計模型,在完成它的概率補全。
那個被總統封殺、被軍方偷用、被炸掉服務器的Claude,用它自己的方式,證明了AI在戰爭中已經不可或缺。
四天之內,封殺、作戰、爆料、宕機,這出荒誕劇告訴我們:
AI不再是戰爭的工具,它已經是戰爭本身。
而我們,只是旁觀者。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.