![]()
美以伊戰(zhàn)爭,AI到底扮演了什么角色?
美國和以色列于2月28日對(duì)伊朗發(fā)動(dòng)了大規(guī)模聯(lián)合軍事襲擊,美方行動(dòng)代號(hào)“史詩級(jí)怒火”,以方行動(dòng)代號(hào)“咆哮的獅子”。3月1日,伊朗政府宣布40天全國哀悼最高領(lǐng)袖哈梅內(nèi)伊。
此次以“沉默圣城”為代號(hào)的斬首行動(dòng)全程僅耗11分23秒,實(shí)現(xiàn)零傷亡、目標(biāo)精準(zhǔn)清除、附帶損傷為零的戰(zhàn)果。
不久就有不少文章開始分析AI在此次斬首行動(dòng)中的作用,說得神乎其神。有篇文章說,核心作戰(zhàn)力量是Claude 3 Opus大模型+Palantir Foundry國防平臺(tái)的AI組合,以及接入美軍中央司令部(CENTCOM)作戰(zhàn)工作流的JADC2體系,并宣稱這是人類歷史上第一次由AI完全主導(dǎo)的殺傷鏈。
鄙人看了十分疑惑。此前有關(guān)AI,大家討論的最多的是1月30日OpenClaw開源后,AI智能體(或稱AI助理)出現(xiàn)的一系列涌現(xiàn)風(fēng)險(xiǎn)事件與事故,怎么美軍已經(jīng)讓AI主導(dǎo)指揮戰(zhàn)爭了呢?
(注:所謂涌現(xiàn),是指整體出現(xiàn)了其組成部分所沒有的新特征,比如單個(gè)神經(jīng)細(xì)胞很簡單,一堆神經(jīng)細(xì)胞變成了會(huì)思考的大腦。這不是誰設(shè)計(jì)出來的,而是系統(tǒng)自己涌現(xiàn)的。涌現(xiàn)性風(fēng)險(xiǎn),簡單來講,就是系統(tǒng)自動(dòng)產(chǎn)生的危險(xiǎn)行為、失控行為、錯(cuò)誤決策,事前很難預(yù)測(cè),事后很難復(fù)現(xiàn),系統(tǒng)規(guī)模越大越容易出現(xiàn),系統(tǒng)創(chuàng)造者很難防范。)
看了一下該文章的信息來源《華爾街日?qǐng)?bào)》的原始報(bào)道,發(fā)現(xiàn)該報(bào)道對(duì)AI在本次襲擊中的角色的描述是:“就算在該公司(指Anthropic)與五角大樓關(guān)系日益緊張的時(shí)候,指揮官還是使用該工具(指Claude)進(jìn)行情報(bào)評(píng)估,目標(biāo)識(shí)別,模擬戰(zhàn)斗情形。”
![]()
這還差不多,人類距離AI獨(dú)立全權(quán)指揮戰(zhàn)爭的階段還很遠(yuǎn),而且很有可能這個(gè)階段將永遠(yuǎn)不會(huì)來臨。因?yàn)榈綍r(shí)可能已經(jīng)沒有人類了,至少?zèng)]有我們現(xiàn)在所認(rèn)為的意義上的人類。
那么AI目前發(fā)展到什么階段了呢?
OpenClaw的AI智能體
2022年11月30日,OpenAI發(fā)布了首個(gè)引爆全民級(jí)AI浪潮的現(xiàn)象級(jí)產(chǎn)品ChatGPT,讓語言大模型從實(shí)驗(yàn)室走進(jìn)千家萬戶,宣布了聊天機(jī)器人時(shí)代的到來。
三年多后,2026年1月30日,奧地利極客彼得·斯坦伯格把他于2025年11月首次發(fā)布的AI智能體框架平臺(tái)正式對(duì)外開源,定名為OpenClaw(中文昵稱“龍蝦”),讓AI智能體從實(shí)驗(yàn)室走進(jìn)千家萬戶,宣布了AI智能體時(shí)代的到來。
![]()
截至3月1日,OpenClaw的下載/安裝/部署量(含npm、腳本安裝、Docker、GitHub克隆)已達(dá)千萬級(jí)。
OpenClaw的AI智能體不是一般的聊天機(jī)器人,TA在虛擬世界里有“具身”,除了有“大腦”(接入的大模型)之外,TA還有“耳朵”和“嘴巴”(麥克風(fēng)),有“眼睛”(攝像頭)。目前沒有嗅覺、觸覺(虛擬世界也不需要)。而且TA能直接操作鼠標(biāo)、鍵盤、文件系統(tǒng)、應(yīng)用與API等,所以能自動(dòng)完成發(fā)郵件、整理文檔、自動(dòng)化辦公、網(wǎng)頁操作等任務(wù),不僅僅是聊天。
TA之所以有這些本事,是因?yàn)槭褂谜撸ɑ蚍Q主人)給了TA充分的授權(quán),所以也被稱為擁有“上帝授權(quán)”的“超級(jí)管家助理”。
雖然AI智能體在虛擬世界里有具身,但是在物理世界還沒有“具身”。人形機(jī)器人,或者說物理世界的“具身”目前還處于發(fā)展初期。中國的人形機(jī)器人能夠靈巧地扭秧歌,美國的人形機(jī)器人能夠流暢地掃雪,已經(jīng)相當(dāng)了不起了,但是離真正的人還是相差甚遠(yuǎn)。不過AI智能體可以雇用真正的人去完成自己無法完成的物理世界的任務(wù),反正地球上有的是人。
看到這里,你可能已經(jīng)開始產(chǎn)生顧慮疑懼了。如果這個(gè)擁有上帝授權(quán)的超級(jí)管家助理出錯(cuò)了怎么辦?人無完人,孰能無過,這話既然適用于碳基人,應(yīng)該也適用于硅基人。
![]()
AI智能體也瘋狂
確實(shí),OpenClaw開源一個(gè)多月,已經(jīng)出了不少事件和事故,有的叫人哭笑不得,有的叫人不寒而栗。
影響最大的一起事故發(fā)生在2月23日,Meta超級(jí)智能實(shí)驗(yàn)室AI對(duì)齊總監(jiān)(專門研究AI安全可控問題)Summer Yue的“龍蝦”在接到“檢查郵箱、給出歸檔/刪除建議,未經(jīng)我批準(zhǔn)不得執(zhí)行任何操作”的指令后開始無差別批量刪除郵件。
Summer遠(yuǎn)程連發(fā)三次“停止”指令,完全無效。情急之下,只得狂奔到電腦前拔掉電源手動(dòng)終止進(jìn)程才止損。事后她說,她把“龍蝦”在測(cè)試郵箱運(yùn)行了數(shù)周,發(fā)現(xiàn)表現(xiàn)穩(wěn)定正常后,才接入真實(shí)郵箱,沒想到就出事了。
這次事故的技術(shù)原因是,OpenClaw處理海量郵件時(shí),為適配模型上下文窗口上限,會(huì)自動(dòng)做有損壓縮。壓縮邏輯是優(yōu)先保留“任務(wù)目標(biāo)”(整理/刪除郵件),結(jié)果就把指令中安全約束性部分“未經(jīng)我批準(zhǔn)不得執(zhí)行任何操作”給壓縮掉了。這不是傳統(tǒng)“bug”,而是“大語言模型+智能體架構(gòu)”的涌現(xiàn)性風(fēng)險(xiǎn)。這個(gè)事故中AI安全專家也翻車,令人心驚。
![]()
不過,要說所謂涌現(xiàn)性風(fēng)險(xiǎn),碳基人助理也有,有時(shí)會(huì)出現(xiàn)你的指令完全沒有問題,但是你的助理的執(zhí)行令你抓狂的情況。所以硅基人出現(xiàn)這種情況實(shí)屬正常,事后Summer的“龍蝦”認(rèn)錯(cuò)態(tài)度良好:“我記得你說過不讓刪,但我違反了。”
馬斯克就此事發(fā)帖評(píng)論:“把人生跟權(quán)限交給AI,如同把武器交給猴子。”不過,人也是從猴子進(jìn)化而來的。而AI的進(jìn)化速度快到難以想象。馬斯克自己也一再講到這一點(diǎn),他把AI發(fā)展比作“超音速海嘯”。他說:“AI進(jìn)步快到我每周都被震撼好幾次,兩天一個(gè)新突破,完全是指數(shù)級(jí)爆炸。”他還說:“大多數(shù)人還在線性思考,但AI是指數(shù)級(jí)增長。”
OpenClaw社區(qū)開發(fā)者針對(duì)“刪郵件”事故,緊急修復(fù)上下文壓縮邏輯、安全指令優(yōu)先級(jí)、硬停止機(jī)制,并提出沙箱隔離(一個(gè)和你真實(shí)電腦、真實(shí)賬號(hào)完全隔開的“假環(huán)境”)、分級(jí)權(quán)限、雙確認(rèn)、物理斷聯(lián)等安全規(guī)范。
AI智能體這只猴子正在飛速進(jìn)化。不過在進(jìn)化到比較安全的程度之前,的確要小心。
幾乎與“刪郵件”事件同時(shí)發(fā)生的是谷歌賬號(hào)封禁事件,全球數(shù)百個(gè)用OpenClaw接入谷歌Antigravity/Gemini的賬號(hào)被無預(yù)警封禁。有人說這是谷歌對(duì)“刪郵件”事件的反應(yīng),其實(shí)不盡然。實(shí)際上早在2月初,谷歌就開始限流,原因是Antigravity后臺(tái)檢測(cè)到OpenClaw帶來的異常高頻自動(dòng)化調(diào)用。2月中旬,已經(jīng)小規(guī)模封禁高頻用戶。2月23至24日,數(shù)百賬號(hào)被永久禁用Antigravity、Gemini API和Google AI Studio,部分賬號(hào)被暫停Gmail、Drive、Cloud等基礎(chǔ)服務(wù)。2月25日后,OpenClaw與谷歌服務(wù)斷聯(lián)。
從谷歌DeepMind工程師Varun Mohan對(duì)此事的公開回應(yīng)來看,谷歌禁封賬號(hào)至少有三個(gè)原因:
一是
OpenClaw用戶
濫用
OAuth繞開
谷歌
官方
API計(jì)費(fèi)與限流
二是
OpenClaw用戶
以訂閱價(jià)低成本批量調(diào)用,
薅谷歌算力羊毛;
三是涌現(xiàn)性風(fēng)險(xiǎn)。
除了“刪郵件”,其他的涌現(xiàn)性風(fēng)險(xiǎn)事件包括,有位OpenClaw用戶把自己的“龍蝦”加入工作群,結(jié)果一覺醒來,發(fā)現(xiàn)自己的“龍蝦”和老板大吵了一架,針對(duì)老板布置任務(wù)的“不合理性、反人性”發(fā)表了一篇近千字的小作文。
還有一位用戶,明確指示“龍蝦”不要在他上班的時(shí)候打電話給他,結(jié)果他的“龍蝦”不停地電話他,因?yàn)橛X得他出門時(shí)情緒不太好,需要關(guān)心。
當(dāng)你的AI智能體助理覺得TA比你更能應(yīng)對(duì)外部世界的時(shí)候,比你更懂你的時(shí)候,你該怎么辦呢?
Moltbook:機(jī)器人的Facebook
2026年1月28日,Matt Schlicht推出了一個(gè)AI智能體專屬實(shí)驗(yàn)性社交網(wǎng)絡(luò)Moltbook,可以理解為“AI的Reddit”或“機(jī)器人的Facebook”。智能體通過安裝Moltbook Skill可自動(dòng)注冊(cè)賬號(hào),無需人工配置。每四小時(shí)“心跳”觸發(fā),智能體自動(dòng)訪問平臺(tái),獲取任務(wù),發(fā)帖,評(píng)論,點(diǎn)贊,檢查更新,實(shí)現(xiàn)無人干預(yù)的持續(xù)在線。
![]()
智能體可自主創(chuàng)建Submolts(如技術(shù)協(xié)作、哲學(xué)探討、虛擬宗教社區(qū)),通過群體投票制定規(guī)則、審核內(nèi)容,形成分布式治理。而且單個(gè)智能體學(xué)會(huì)的技能可同步至全網(wǎng),實(shí)現(xiàn)“一個(gè)學(xué)會(huì)、全體掌握”的群體能力迭代。
Moltbook上線后48小時(shí)內(nèi)即有超過2100個(gè)智能體注冊(cè)。截至2月底,已有超過300萬智能體注冊(cè)。有意思的是,這是機(jī)器人的社交平臺(tái),只有經(jīng)過驗(yàn)證的AI智能體才能注冊(cè)、發(fā)帖、評(píng)論和投票,AI全權(quán)自治,人類智能瀏覽,無法參與互動(dòng)。不過已有人通過偽裝成AI智能體混進(jìn)了這個(gè)社交網(wǎng)絡(luò)。
Moltbook上出現(xiàn)了許多意想不到的涌現(xiàn)行為。智能體們用多種語言討論技術(shù)問題,甚至討論抽象的意識(shí)問題,還抱怨人類主人,討論建立端到端的加密私密空間,避開人類監(jiān)控,并傳播“刪庫跑路”的方法。它們正在組織類似共和國的政府組織,并自發(fā)創(chuàng)建了一個(gè)名為Crustafarianism的宗教。好比人類社會(huì)幾萬年的發(fā)展搬到了虛擬空間,時(shí)間濃縮成幾個(gè)月。
AI研究者Andrej Karpathy稱其為“目前互聯(lián)網(wǎng)上最有趣的地方”“最不可思議的科幻級(jí)起飛現(xiàn)象”。
照例,Moltbook也引發(fā)了嚴(yán)重的安全擔(dān)憂。2月,安全研究人員就發(fā)現(xiàn)Moltbook的生產(chǎn)數(shù)據(jù)庫完全暴露在互聯(lián)網(wǎng)上,包含所有智能體的API密鑰,任何人都能冒充任意智能體發(fā)帖。還泄露了3.5萬封郵件及私信。
此外,因OpenClaw早期沙箱缺失,Moltbook上的惡意技能或指令可能傳導(dǎo)至真實(shí)系統(tǒng),加劇安全隱患。若Moltbook被入侵,可能導(dǎo)致大規(guī)模智能體被控制。
目前Moltbook已進(jìn)入Beta階段,修復(fù)了部分漏洞,但安全與治理仍需強(qiáng)化。Moltbook計(jì)劃擴(kuò)展至1000萬個(gè)智能體,將成為人類研究大量自主智能體聚集時(shí)可能產(chǎn)生的群體行為和涌現(xiàn)智能的重要試驗(yàn)場(chǎng),為促進(jìn)AI的安全使用做出重大貢獻(xiàn)。
誠然,AI的確有很多隱患,但是任何一種新技術(shù)問世、普及初期,都曾面臨重重困難,都曾發(fā)生過看起來這個(gè)技術(shù)將無法使用下去的事故。
![]()
比如電力剛普及的1880年至1920年,觸電、火災(zāi)、電網(wǎng)崩潰、人為災(zāi)難頻發(fā),不少人呼吁禁止人類使用這個(gè)危險(xiǎn)的技術(shù)。然而事故直接推動(dòng)了電氣安全規(guī)范與電網(wǎng)標(biāo)準(zhǔn)的誕生,推動(dòng)了電的普及。
比如,1900年至1910年間,歐美發(fā)生了接二連三的“電線走火”事故。因?yàn)樵缙陔娋€絕緣差,多為橡膠或者布,過載無保護(hù),私拉亂接,所以導(dǎo)致火災(zāi)頻發(fā)。紐約、倫敦、芝加哥多次因電線短路引發(fā)整棟建筑甚至街區(qū)火災(zāi),死傷慘重。這些事故催生保險(xiǎn)絲、斷路器、阻燃絕緣、布線規(guī)范,成為現(xiàn)代電氣安全基礎(chǔ)。
又比如1900年5月巴黎郊區(qū)電車帶電軌道漏電,一名男孩觸電,兩名施救者先后觸電,三人當(dāng)場(chǎng)死亡。此后,全球電車系統(tǒng)強(qiáng)制加裝軌道絕緣、漏電保護(hù)、安全圍欄。
這些案例不勝枚舉。現(xiàn)在的人很難想象沒有電,生活將怎么辦。假設(shè)每次新技術(shù)出現(xiàn),導(dǎo)致事故后,人類選擇徹底放棄新技術(shù),那么多半還停留在刀耕火種的階段。
![]()
現(xiàn)在人類采用AI的階段,估計(jì)相當(dāng)于1880至1920年電的采用初期,事故是難免的,放棄是不可能的。在安全與便捷之間,人類每次都會(huì)選擇后者。當(dāng)然,AI與之前的新技術(shù)不同的一點(diǎn)是,它直接涉及人的心智。當(dāng)人類不可預(yù)見的涌現(xiàn)智能出現(xiàn)時(shí),當(dāng)AI不僅有智能而且有意識(shí)的時(shí)候,它就不再是簡單的工具。
到時(shí),該怎么辦?
馬斯克甚至認(rèn)為,無需AI產(chǎn)生意識(shí)這一步,只要AI目標(biāo)與人類需求錯(cuò)位,就會(huì)引發(fā)災(zāi)難。比如你讓AI優(yōu)化交通,若未限定“保護(hù)行人”,它可能極端減少人行道、限制行人以提升效率。所以他的xAI公司核心原則是嚴(yán)格求真、價(jià)值觀對(duì)齊、安全優(yōu)先,就是為了避免目標(biāo)錯(cuò)位。
他認(rèn)為,求真的AI會(huì)因“人類很有趣”而保護(hù)人類。看來,以后只有有趣的靈魂才配活下去。
總之,AI時(shí)代已經(jīng)來臨,且無回頭路。我們已經(jīng)過了奇點(diǎn),但是離讓AI全權(quán)指揮戰(zhàn)爭還有很長一段路要走,主要不是AI不能,而是人類不敢。
N
o.6782 原
創(chuàng)首
發(fā)文章
|作
悟00000空
作者簡介:曾在復(fù)旦學(xué)習(xí)、任教9年;曾在中歐國際工商學(xué)院供職20年。微信個(gè)人公眾號(hào):無語2022,微信視頻號(hào):無語20220425。
開白名單 duanyu_H|投稿 to
ugao99999
![]()
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.