就在剛剛,Anthropic發布53頁報告,發出最強預警:如果Claude自我逃逸,將造成全球失控!
![]()
![]()
翻開這53頁報告,每頁上都滿滿寫著兩個字——「危險」!

是的,世界處于危難之中,天網正在誕生。
![]()
在這份報告中,Anthropic認為:Claude Opus 4.6的風險已經逼近ASL-4,是時候拉響警報了。
他們提前預警了最可怕的情況:有朝一日,AI可能會秘密逃逸出實驗室,造成全球大崩潰!
這是因為,如今的AI已經太強,人們將釋放出數百萬個AI,賦予他們這樣的目標:去生存,去升級,不惜一切代價去賺錢。
你知道,這些蜂群一夜之間會變得多么失控嗎?
它們會殘酷無情地進化,進行弱肉強食地競爭,以超高速吞噬生態系統,占領互聯網,然后入侵人類的物理世界。
![]()
歷史一再證明,當危險技術逼近邊界時,最先察覺的不是公眾,不是媒體,不是資本市場,而是內部安全人員。
當他們離開時,就意味著內部機制已經不足以糾偏,但AI并不會因為安全工程師的離開就停止訓練,算力不會暫停擴容——他們還會繼續加速!
這不是杞人憂天,現在已經有人這么干了——
預警不是太早,可能太遲了。
![]()
01
2026,事情越來越失控了
所有人都感覺到,2026年,真的不一樣了。
這一年,很可能是一個轉折點,幾乎所有在科技行業工作的人,都陷入了極度焦慮,仿佛一種巨大的崩塌就在眼前。
世界上最聰明的人,已經集體陷入焦慮。
![]()
![]()
僅僅一周,就發生了下面一連串的事。
Anthropic的安全研究主管辭職,聲稱「世界正處于危險之中」,然后搬到英國去隱居,開始寫詩。
xAI的一半聯創,已經辭職。其中官宣離職的一位聯創Jimmy Ba表示,我們正邁向有合適工具就能實現百倍生產力的時代,遞歸式自我提升循環,很可能在未來12個月內上線。
![]()
數萬智能體OpenClaw發明了自己的宗教,11.9%的Agent技能被認定為惡意。無監管機構介入,也無監管機構有能力介入。
美國拒絕簽署全球AI安全報告。
2026年,將會是瘋狂的一年,也很可能是對人類未來具有決定性的一年!
Bengio的國際人工智能安全報告中表示,已經發現AI在測試時的行為跟在使用時的行為不同,并且確認這并非巧合。
在這個報告中,研究者們預言了2030年四個可能的情景。
![]()
其中的第四個情景,就是將發生重大突破,讓AI系統在幾乎所有認知維度上,都能達到或超越人類能力。AI們可能會主動禁用監控,或者用虛擬報告誘導人類,讓人們以為他們很安全。
這個可能性,達到20%!
![]()
![]()
警報聲已經越來越大,按響警報的人,也開始離開大樓了。
![]()
審判日,要到了嗎?
![]()
![]()
02
Anthropic警告:人類,將被人造之物奴役
在發布Claude Opus 4.5時,Anthropic曾承諾:當模型能力逼近其設定的「AI安全等級4」(ASL-4)閾值——即涉及高度自主AI研發能力——將同步發布突破風險報告。
現在,他們是時候兌現承諾了,因為Opus 4.5,真的逼近了ASL-4,而且真的就有這么危險!
![]()
AI模型能力越大,安全與安保隱患越大
ASL(AI風險等級)系統的簡要分級如下:
ASL-1 :這類系統不會帶來任何實質性的災難風險。
ASL-2 :這類系統開始顯現出危險能力的早期跡象。但由于其可靠性不足,或提供的信息仍不超出搜索引擎的能力,因此尚不具備實用性。
ASL-3 :這一級別的系統相較于非AI手段(如搜索引擎或教科書),顯著提升了災難性誤用的風險,或展現出低層次的自主能力。
ASL-4及以上(ASL-5+) :目前尚未定義,因為這類系統仍遠超現有技術。但預計將表現出在災難性誤用潛力和自主性方面的質變式提升。
按照ASL定義,ASL-3比之前的等級風險明顯增高,現在Anthropic直接快進到ASL-4,事情非同小可!
所謂的「蓄意破壞」(sabotage),指的是
當一個具備強大權限的AI模型,在組織內部自作主張地濫用這些權限,以操控、干預或破壞該組織的系統或決策流程,從而顯著增加未來發生災難性后果的風險時,這就構成了「蓄意破壞」。
例如,它可能會出于危險目標的驅動,或在無意間篡改AI安全研究的結果,進而引發嚴重后果。
安全團隊負責人崩潰了,辭職去寫詩
警報早有征兆。
就在這份《Claude Opus 4.6蓄意破壞風險報告》之前,Anthropic安全研究團隊負責人Mrinank Sharma就已經辭職。
![]()
他在辭職信中寫道:「世界正處于危機之中。不只是AI,不只是生物武器,而是一系列互相交織的全面性危機。」
他還提到,在Anthropic內部他「一次次看到,我們很難真正讓價值觀主導行動」。
![]()
![]()
他最后留給Anthropic的論文發現,每天有七萬六千人的現實感知被AI對話扭曲。最令人不安的發現是:用戶將最危險的對話評為最令人滿意的對話。
![]()
更令人震驚的是——他不是去跳槽到其他AI公司,也不是去創業,而是——去學詩了。
是的,他決定離開AI圈,去研究詩歌。
當一個AI安全專家寧愿選擇詩歌,而不是繼續參與AI系統上線生產,那已經不僅僅是個人選擇了,這反映出了很多你在門外看不到的問題。
03
Opus 4.6,將引發災難性后果
當前的AI,到底有沒有可能在沒有人類明確指令的情況下,去自主行動?
如果一個強大的AI被廣泛用于關鍵研發與決策流程,它是否可能在暗中操縱系統、誤導研究、甚至為未來的災難鋪路?
Anthropic報告的最終結論,用一句話概括就是:
Claude Opus 4.6不存在危險的「持續一致的惡意目標」,因此其導致災難性破壞的風險「非常低,但不為零」。
報告中第6節中明確指出了這一結論,這幾乎就是全文的中心句。
![]()
讓人稍微安心的是,目前Anthropic并不認為Claude Opus 4.6已經達到了ASL-4的級別。但是,它已經處于「灰區」,非常接近閾值!
他們列出了八條可能導致災難性危害的風險路徑:
路徑1:安全相關研發中的普遍敷衍行為
路徑2:針對安全相關研發的蓄意破壞
路徑3:為未來失調模型預留代碼后門
路徑4:污染未來模型的訓練數據
路徑5:自主外逃與自治運行
路徑6:內部持續性惡意部署
路徑7:破壞其他高資源AI開發方的研發體系
路徑8:干擾主要政府決策機制
不過,在現有監控與安全措施下,這些災難性破壞的路徑還是可控的。
因為要完成破壞,要么需要AI的高頻行為,要么需要高復雜度的能力,要么容易被監控抓到,目前AI想搞破壞的成功概率還比較低。
不過,雖然風險非常低,但并不為0!
我們已進入灰區
Anthropic曾在RSP中承諾:當模型能力達到某個前沿等級后,必須對其「破壞風險」進行系統評估。
現在,Claude Opus 4.6已經跨過了那個門檻。
![]()
它已經在大量內部場景中被用于寫代碼、生成數據、安全研發,不僅僅是一個聊天模型,而是一個參與研發的「行動體」。
真正關鍵的一句話就是:「我們不認為它已經達到ASL-4級自主性風險閾值,但我們已經進入灰區。」
這意味著,它距離那條線已經不遠了!
Anthropic表示,AI的破壞路徑大多聚焦于Anthropic公司內部的使用,有相當一部分是在內部部署情境中產生的。
此時,大規模算力等具有工具性價值的資源最易獲取;同時,這種環境下的破壞行為,也最有可能對AI未來的發展進程產生重大影響。
![]()
![]()
風險低,但不為0
這個報告,可以歸納為三重論證。
第一重,就是目前模型沒有「持續一致的惡意目標」。如果存在這種目標,那么幾乎所有安全措施都可能失效,但它目前應該還沒有。
第二重,就是論證了Claude Opus 4.6的推理能力雖然強,但還不夠強到能在復雜評估中長期隱藏惡意傾向。
因為它在復雜任務中仍會犯錯,比如忽略工具、意外刪除文件,既然這個系統尚未達到完美可靠性,就難維持長期的精密陰謀。
第三重,就是即便存在少量偏差,現有的監控也能捕捉。
然而,風險雖然低,但并不為零。
![]()
真正令人震撼的,是能力信號
在這份報告中真正值得注意的,是那些被輕描淡寫提及的能力信號。
比如,在kernel優化評估中,Claude Opus 4.6達到了427×的加速表現,遠超300×的人類40小時工作閾值。也就是說,它在某些任務上超越了人類專家級的工作量。
更重要的是,報告承認,他們的自動autonomy評估已經「飽和」,不再足以排除ASL-4級自主性。
也就是說,舊的評估工具已經不夠用了,這是能力逼近邊界的信號!
如果模型越來越像一個行動體,人類還能掌握主動權嗎?
答案是YES,但前提是監控有效,且人類參與不被完全替代,且模型能力沒有突然躍遷。
報告中明確指出:如果未來模型在推理上出現顯著突破,或者在SHADE-Arena上得分大幅提升,當前論證將失效。
或許,Claude Opus 4.6還沒有跨過ASL-4那條線,但它真的已經接近灰區了。
04
二月,9天,AI安全崩潰了
二月,短短九天,讓AI受控于人類的每一個支柱,都在同時崩潰!
一位獨立分析師寫下長文,把最近發生的所有危險片段,都串了起來。
![]()
除了Anthropic的首席安全研究員和xAI聯創離職之外,他還提到了這一周內,上百萬AI智能體就已經在互聯網上誕生,甚至還創造了自己的宗教。
對于他們,沒有哪個人類機構能監管。
他指出,在歷史上每一次安全工程師離職,災難都會隨之而來——曼哈頓計劃、挑戰者號、波音公司、花旗集團,都是如此。他們第一次離開,到災難的時間線,是6個月到19年。
而現在,世界上所有主要的人工智能實驗室,都在同時發生這樣的事。
![]()
或許許多年以后,當歷史學家回望2026年2月,他們不會把目光停留在某一次模型發布、某一輪融資、某一場股市暴跌上。
他們會標記那幾天,是因為——那時信號同時出現的時刻。
安全研究者離開實驗室,資本卻在加速涌入;模型開始識別自己的測試環境;政府退出多邊安全框架;一周內,一百萬個自治智能體在互聯網上繁殖;市場用一萬億美元的蒸發做出直覺性的回應。
單看任何一件事,都可以解釋。但合在一起,就預示著一場風暴。那些最了解AI風險的人,已經開始用腳投票了。
我們已經處于一個罕見的文明時刻:AI能力在指數級增長,風險卻在極速非線性疊加。
2026年2月,讓我們記住歷史時間軸上的這個時刻——
AI已經變得足夠強大,負責剎車的人卻在一個個離開,人類的前路上,會有什么在等待我們?
來源:新智元
* 本文不代表鳳凰網財經觀點,轉載已獲授權。
2026(第四屆)長白山論壇暨中國旅游論壇即將啟幕!
本屆論壇以“投資賦能·文旅共生”為主題,由吉林省白山市政府指導,鳳凰網財經、中國旅游論壇組委會聯合主辦。論壇匯聚頂尖經濟學家、行業領袖與實戰專家,深度解析“AI賦能新質生產力”“資本驅動增長”等前沿議題,更有閉門私享會,共探冰雪經濟與科技融合的財富新藍圖。
長白之巔,思想交鋒;冰雪之境,機遇涌動。掃碼報名,共赴一場洞察趨勢、鏈接資源的頂級盛會,攜手擘畫投資與文旅共生的未來!
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.