“規則”兩個字剛被擺上桌面,就遭最有分量的兩位玩家同時推開,2026年2月3日,海牙會場,西方二十余國把《軍事人工智能負責任使用宣言》遞到各國面前,墨跡未干,中國與美國在同一分鐘舉手,
![]()
不是提筆,是搖頭,鏡頭掃過,簽字頁空白兩行,像兩道被撕開的口子,把會場撕得寂靜,沒有爭吵,沒有解釋,只有一句禮貌而冰冷的“我國無法加入”,西方籌備半年的“AI軍控樣板戲”,連幕布都沒拉滿,就斷了片。
1.AI武器須設“可驗證”人工回路,戰后審計。
![]()
2.訓練數據須“倫理審查”,禁用平民區圖像。
3.出口管制,簽署國不得向非締約方轉讓高于L4自主等級模塊。
看上去像給AI戰爭拴韁繩,“可驗證”與“倫理審查”的標準誰定,附件留白,默認由“現有國際多邊機制”填寫,也就是過去二十年由少數技術大國主導的清單,北京與華盛頓讀出同一層潛臺詞,這是把技術標準鎖死在別人的扳機里。
華盛頓要先保領先優勢,五角大樓去年12月把AI加速戰略升格為“戰時姿態”,預算表上,2027年前列裝四個AI旅級戰斗隊,美方評估認為,一旦把“可審計代碼”寫進國際義務,等于把算法庫敞給對手做逆向教學,離場官員只留一句,“我們不會在領跑時給自己戴手銬,
![]()
![]()
底層邏輯一樣,主權數據不容跨境審計,無論中美,都把軍事AI算法視為主權數據,宣言要求“戰后審計”,代碼,參數,訓練集全交第三方,對兩國而言,這比裁核彈還敏感,核彈不聯網,AI模型一旦泄出,十分鐘就能在云端克隆一支影子部隊。
印度簽字,但劃掉“出口管制”,
以色列最干脆,簽字,附件三整體刪除,只接受道德口號,不接受實質約束,
一圈看下來,真正準備全條款落地的,只剩歐盟,加拿大,澳日韓,加起來占全球軍費三成,卻占不到AI軍費一半。
規則擱淺,技術不等人,過去兩周,三條消息低調放出:
1.美X-62A驗證機在內華達完成首次“完全自主”狗斗,人類飛行員全程未碰操縱桿。
![]()
2.中國航天科工展出一架“蜂群母機”,一次投放96枚AI巡飛彈,單枚成本壓到3萬美元。
3.以色列“薰衣草”系統升級2.0,目標庫從3.7萬擴至12萬,識別時間從48小時縮到58分鐘。
沒有共同規則,就等于默認叢林規則,一家歐洲軍工高管私下抱怨,“以后賣系統得先問客戶,你打算按哪家倫理說明書開機,華盛頓版,北京版,還是特拉維夫版,
A.區域閉環,中美各拉小圈子,亞太,中東,東歐多軌并行,談判快,戰場相遇時算法語言不通,誤判概率指數級上升。
B. 行業私規,軍火巨頭先走一步,政府退二線,核心參數仍握廠商手里。
![]()
C.戰場倒逼,最悲觀也最快,等到下一次AI誤擊平民,全球輿論爆表,安理會72小時通過“技術停火協議”,代價是血,速度卻比現在任何談判都快。
當規則缺席,算法會繼續寫自己的劇本,今天會場里那兩頁空白,也許只是未來史書上的一句注腳,“2026年2月,人類曾有機會給AI武器套上韁繩,卻選擇先攥緊自己的槍,”下一場沖突的開幕炮聲,會不會就是某行代碼在0與1之間做出的判斷。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.