
要說這幾天最大的新聞,當屬是美國、以色列和伊朗的這簍子事了。
關于地緣政治和軍事沖突的博弈,差評君不是專家,就不在這里班門弄斧了。但值得注意的是,隨著遠方炮火聲一同在互聯網上引爆的,還有一波大家對 AI 參戰的深深恐懼。
這兩天,一篇把AI在戰場上描繪得神乎其神的文章在各個群里炸開了鍋,獲得了病毒式的傳播。
文章鏈接我就不貼了,簡單摘要兩句話來給大家一起看吧:
在那篇文章里,這場被美軍命名為“史詩憤怒行動”的斬首突襲,被認為是“它是人類歷史上第一次由人工智能(AI)多輪輔助“殺傷鏈”(Kill Chain)的高層斬首行動”。
還說“AI不再只是一個輔助工具,它與人類一起成了真正的決策者、追蹤者和執行者的一部分。”
這些詞一套一套的,看起來是蠻唬人的,仿佛下一秒,AI 就能獨立發起一場戰爭,像科幻電影一下直接把大家給一起突突了得了。
![]()
但是在仔細閱讀了各類主流媒體的報道,扒拉了不少 AI 圈的通告后,差評君發現這篇文章不能說是稍微夸大,只能說是基本扯蛋了。
今天咱們就不妨從現實出發,好好盤一盤:在這次的軍事行動中,AI 到底起到了什么作用?它又是怎么起作用的?
美國政府在軍隊中使用 AI,是大家早就知道的了的事情。
早在 24 年 11 月,Anthropic 和一家為美國軍方提供大數據分析的公司 Palantir 就展開了合作,整上了個特殊的服務器,在里面運行上了政府定制版的 Claude。
![]()
到了去年 6 月,Anthropic 更是直接寫了篇博客,告訴大家他們給政府特調了一個模型,Claude Gov。
![]()
比起傳統的 Claude 來說,這個政府特供模型直接打開了話匣子,可以處理各種敏感信息。
![]()
而且還能精通各路方言,看起來是沒少吃當年溫州話加密通訊的虧啊。。。
![]()
而到了轟炸完伊朗后,華爾街時報更是在報道中再次指出,他們用 Claude 完成了情報評估、目標識別和戰斗場景模擬的工作。
![]()
好了,沒了,目前網絡上,能比較靠譜的講出AI在這次軍事行動中起到了什么作用的內容,其實就這些。
至于剩下的那些“AI 自動鎖頭”、“一鍵發射導彈”的地攤文學,大家當個樂子看就行,除非有現場怪出來現身說法,否則都不太靠譜。
大家也能看出來,在真實的戰爭機器里,大模型扮演的,主要還是一個情報官和分析師的工作。
現代戰場的數據簡直就是個無底洞,天上的衛星圖、前線的無人機視野、雷達信號,飛機路徑,甚至是剛才提到的各種方言和加密電波都混在一起,以前想要處理這么多信息就得純純靠人工。靠一屋子的情報分析師熬大夜去一幀一幀地扒、一句一句地聽才行。
![]()
而參與信息處理的人一多,那信息在傳遞的過程中可能就會有遺漏,但現在接上了大模型之后,幾十萬字的情報直接往 Claude 里一扔,刷刷過幾秒鐘,可能大模型的判斷結果就出來了。
在差評君看來,根據公開實錘的資料,這套操作背后的邏輯,甚至和你平時遇到麻煩,去問大模型法律條款、或者讓它幫你總結一下體檢報告,本質上差不多。
最大的差別,無非就是他們喂給AI的知識庫,以及訓練的數據,換成了實打實的機密情報和戰爭模型而已。
它給出來的信息能不能信,能信多少,還得依靠人類來做最后的判斷。
總不可能直接問克勞德,“小克小克,幫我找到對面老大的位置”,就直接按下開火鍵吧。
![]()
當然,我們也不能小看判斷信息的作用。
實際上,就這么個把信息總結,信息決策能力點滿了的 AI ,已經早就是美國軍方的心頭好了。
為此,美國軍方還跟 Anthropic 大打出手。
在 Anthonpic 眼里,它認為 AI 可以給拿去用作軍事用途,但是不能亂用,于是他們給 AI 劃了兩條紅線:
一是要求禁止軍方把AI拿去大規模的監控美國民眾,二是不能拿 AI 來開發完全自主的殺戮武器。
![]()
說完這倆話 Anthropic 還打了個補丁,說現在 AI 還沒做到這些事,這倆紅線只是放在未來以防萬一的。
![]()
但是在美國軍方眼里,這種行為簡直就是典型的“你在教我做事”。戰爭機器的運轉,怎么可能受制于一家私營企業的服務條款?
根據彭博社的報道,去年 12 月的時候,一個美國國防官員就問過 Anthropic 的 CEO 達里奧 一個假設問題:
如果一枚裝載著核彈頭的洲際導彈正朝著美國本土砸來,離落地只剩下最后的 90 秒。
而這個時候,Anthropic 的 AI 是全村唯一的希望,是唯一能觸發反擊系統、拯救整個國家的手段。但偏偏,由于你們公司設置的安全護欄不允許,AI 死活拒絕執行發射命令,這時候該怎么辦?
![]()
結果達里奧的回答給軍方直接給干沉默了,簡單而有力的兩個字:“Call me”。
好家伙,合著國家面臨生死存亡、只剩一分半鐘就要被核平的危機關頭,超級大國的總統和將軍們還得先找個手機,給你這位私企老板打電話走個審批流程?
這對軍隊來說,屬于是完全不能接受的結果了。
于是,五角大樓也是徹底掀桌子了,要求 Anthropic 開放毫無保留的 AI 最終控制權。在遭到拒絕后,美國政府立刻展開了排山倒海般的施壓。
這場拉扯持續了數月之久,官方不僅在談判桌上步步緊逼,最終甚至直接動用了國家機器的力量。
達里奧也從那個陽光開朗大男孩,變成了一副苦大仇深的樣子。
![]()
就在幾天前,特朗普總統親自下達了極其嚴厲的禁令,要求所有聯邦機構立刻停止與 Anthropic 的合作。
緊接著,美國國防部更是直接翻臉,將這家前腳還在幫他們處理機密情報的美國公司,正式定性為國家安全供應鏈風險,要求凡與美國軍方有業務往來的承包商、供應商或合作伙伴,均不得與Anthropic開展任何商業活動。。。
![]()
如果這玩意真的執行下去,那 Anthropic 可能都找不到更多服務器來訓練新模型了。
![]()
但好玩的是,其實美國政府自己也舍不得 Claude,雖然嘴上喊著要全面封殺,但身體卻無比誠實,留下了六個月的緩沖期,在幾天后對伊朗的軍事行動里,還是口嫌體正直的用上了 Claude。
而山姆奧特曼的 OpenAI、馬斯克的 XAI 看到 Claude 的退出,也開始抓住這波機會,想要讓自己的公司來和美國軍方展開合作。
所以說,不論硅谷的公司們如何爭論,AI 越來越多地介入現代戰爭,已經是一個不可逆轉的必然趨勢。
在體驗過 Claude 之后,美國軍方已經徹底回不去了。就算被特朗普列入管制名單,他們還依舊保留了 6 個月的過渡時間來讓自己繼續用 Claude。
不可否認,AI 必然會對未來的軍事甚至世界格局產生巨大的影響。但越是在這種時候,我們越需要正視這種影響,褪去那些科幻電影和網絡爽文帶來的恐懼濾鏡。
只有建立起理性的認知,弄清楚現在的AI到底能干嘛,不能干嘛,我們才不會輕易被那些瞎編扯淡的“賽博地攤文學”給忽悠了,陷入莫名其妙的恐慌和焦慮。
這種恐慌和焦慮,或許是比 AI 更可怕的東西。
撰文:早起
編輯:江江 & 面線 & 大餅
美編:煥妍
圖片、資料來源:
X,網絡信息
US military reportedly used Claude in Iran strikes despite Trump’s ban
Inside Anthropic’s Killer-Robot Dispute With the Pentagon
U.S. Strikes in Middle East Use Anthropic, Hours After Trump Ban
Pentagon Used Anthropic’s Claude in Maduro Venezuela Raid
Anthropic and Palantir Partner to Bring Claude AI Models to AWS for U.S. Government Intelligence and Defense Operations
Read the full transcript of our interview with Anthropic CEO Dario Amodei
Anthropic faces fallout across federal agencies from DOD clash
Responsible AI that meets government needs
Claude Gov models for U.S. national security customers
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.