一邊公開力挺Anthropic,痛批五角大樓施壓;一邊轉頭就簽下軍方協議,把模型部署到涉密網絡。
奧特曼和OpenAI的12小時光速反轉,讓AI行業的倫理之爭徹底變味。
同樣的安全底線,為何Anthropic遭封殺,OpenAI卻被“特殊對待”?
一、12小時極限反轉,從聲援到簽約
劇情的反轉快得讓人措手不及。
就在公開支持Anthropic不到12小時,OpenAI CEO奧特曼在社交平臺連發三條相同帖子,高調宣布:OpenAI已與五角大樓達成協議,將AI模型部署到軍方機密網絡中。
而在此之前,奧特曼還在公司內部備忘錄和電視節目中雙重表態:“AI不應用于大規模監控或自主致命武器,這是我們的底線”“五角大樓不該用法律威脅AI公司”,甚至直言“信任Anthropic,認可他們對安全的重視”。
這種前后矛盾的操作,瞬間引爆輿論。有網友犀利吐槽:“剛說有紅線,轉頭就把模型送進軍方機密網絡,原則在合同面前不堪一擊”;還有人質疑:“同樣是堅持安全底線,Anthropic被封殺,OpenAI卻簽約,這難道不是雙標?”
二、同樣的底線,不同的操作
奧特曼在聲明中特意強調,這次合作沒突破安全紅線。
協議明確寫入兩條核心原則:一是禁止用于國內大規模監控,二是使用武力(包括自主武器系統)必須由人類承擔責任,五角大樓已同意這些原則,并體現在法律和政策中。此外,OpenAI還會搭建技術防護措施,模型僅部署在云網絡,不涉及飛機、無人機等軍事“邊緣系統”。
但這兩條原則,恰恰是Anthropic此前堅守、并因此遭封殺的核心訴求。同樣的底線,為何換來截然不同的結果?
據《財富》雜志披露的消息,Anthropic與五角大樓談判破裂,除了條款分歧,還因為CEO達里奧·阿莫迪的一些言論和博客文章“冒犯”了軍方領導層。
而OpenAI則選擇了更靈活的合作方式:不把約束留給企業自主判斷,而是通過援引具體法律和政策,將安全條款明確寫入合同,讓五角大樓更容易接受。
更值得注意的是,OpenAI保留了更多控制權,比如可以自主構建“安全防護系統”,模型拒絕執行的任務,政府不能強迫。這種“有條件的妥協”,讓合作雙方都有了臺階。
三、AI行業格局生變,妥協與堅守的分岔路
這場反轉背后,是AI行業在權力與利益面前的艱難抉擇。
一邊是Anthropic的強硬堅守。即便被特朗普下令全面封殺、列為“國家安全供應鏈風險”,公司仍明確表示不會退讓,甚至準備提起訴訟維護自身權益。
作為從OpenAI出走的“安全派”代表,Anthropic創始人阿莫迪與奧特曼早有理念分歧,前者堅持安全優先,后者更傾向商業落地,這次事件讓兩家公司的對立徹底公開。
另一邊是OpenAI與xAI的順勢入局。馬斯克旗下的xAI此前已簽署協議,同意軍方“所有合法用途”的要求,成為五角大樓的備選;而OpenAI的加入,讓軍方有了更成熟的AI方案。
有消息稱,五角大樓原本與Anthropic有價值2億美元的合作,如今這部分訂單大概率會流向OpenAI。
但爭議并未平息。網友們最大的疑問是:戰爭場景復雜多變,“人類對武力負責”的條款如何落地執行?一旦模型被用于關鍵軍事決策,誰能真正監督底線不被突破?
這場12小時的反轉,早已超越單純的商業合作爭議。它暴露了AI倫理的脆弱性——同樣的原則,換一種溝通方式就能被接受;也揭示了行業的現實:在巨大的權力和利益面前,純粹的堅守越來越難。
未來,AI公司該如何平衡商業發展與倫理底線?五角大樓對不同企業的“差異化標準”會否成為常態?這些問題,遠比一份合作協議更值得行業深思。
畢竟,AI技術的底線,從來都不該是談判桌上的妥協產物。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.