Anthropic 發布了它有史以來最強大的模型 Claude Mythos,將不對公眾開放。
越說越好奇了,這到底是有多強?
![]()
不公布的原因是,模型「構成前所未有的網絡安全風險」(poses unprecedented cybersecurity risks)。歷來所有的模型都會在網絡安全的賽場上測試它們的能力,迄今為止,只有 Mythos 獲得了這樣的「高評價」。
最害怕 AI 的公司,正在造最危險的 AI,這件事跟你我有關。
A 社自己都害怕
在 Mythos 發布之前,Anthropic 就私下向美國政府高官發出警告:Mythos 使得大規模網絡攻擊在 2026 年變得更加容易實現。
4 月 7 日,Anthropic 的紅隊安全團隊發布了 Mythos Preview 的技術評估報告,這份報告是近年來 AI 安全領域最重磅的技術文檔之一,其中讓 A 社決定不公開發布的地方在于:
Mythos Preview 能找到每一個主流操作系統和每一個主流瀏覽器中的「零日漏洞」級別的 bug,并自主編寫攻擊代碼。
在網絡安全領域,「零日」指的是開發者發現這個漏洞后,修復它的時間是 0 天——在被發現的那一刻,它已經可以被利用了,防御方沒有任何準備時間。
![]()
,Mythos 找到了 OpenBSD 中存在 27 年的 TCP 協議漏洞、FFmpeg 中存在 16 年的視頻解碼器漏洞、FreeBSD 內核中存在 17 年的遠程代碼執行漏洞(CVE-2026-4747)、一個未披露名稱的生產級云計算 VMM 的內存損壞漏洞,以及多個主流瀏覽器的沙箱逃逸漏洞。這些 bug 都已經存在十年甚至二十年之久,之前從未被任何人或工具發現。
為什么這些 bug 能藏這么久?顯然不是因為它們太簡單而被忽略,是因為太復雜:需要跨多個維度的推理,加上精確的觸發條件。
目前安全行業最主要的自動化工具是 fuzzer(模糊測試器),給程序喂大量的隨機輸入,看它會不會崩潰。Fuzzer 擅長發現「輸入 X 導致崩潰」這種簡單關系。
![]()
Fuzzer 不會「推理」,它只會盲測。比如 OpenBSD 的安全漏洞,需要理解兩個看似無關的條件組合在一起才會爆炸;FFmpeg 那個 bug 需要構造一個精確命中特定數值的視頻文件,正常使用或者隨機測試,可能永遠不會撞上。
那人呢?人總會推理吧?但人類審計員需要考慮規模問題。這些項目都有幾百萬行代碼,人眼不可能逐行檢查每一個文件。而且存在一種心理盲區:當一段代碼已經安全運行了 27 年,任誰都會想當然地認為「應該有人查過了」。
![]()
Mythos 的質變在于它第一次同時具備了兩種能力,推理和針對性實驗。傳統工具是「盲測」:隨機輸入,觀察結果。人類審計是「推理」:讀代碼,推理漏洞,驗證。
Mythos 把兩者合二為一,它讀懂代碼的語義,提出「這里可能有漏洞」的假設,然后自己啟動程序、加調試邏輯、運行實驗來驗證或推翻假設,循環往復。
Anthropic 強調,這些能力不是專門訓練的結果,而是模型在代碼、推理和自主性方面的通用改進的副產品,它們是「涌現」的。讓模型更擅長修復漏洞的同時,也讓它更擅長利用漏洞。上一代模型 Opus 4.6 在自主漏洞利用方面的成功率接近 0%。Mythos Preview 在同一個測試中,成功率從 2 次跳到了 181 次,都不是階梯式提高,是平地起高樓。
![]()
Anthropic 的首席科學家 Jared Kaplan 對《紐約時報》說,他希望讓更多人意識到這項技術的能力,因為這意味著模型不只是有找到漏洞、發現問題的能力,也有利用問題的能力,自動把漏洞變成可用的武器。
另一位安全研究者 Logan Graham 提出了一個更尖銳的問題:全球有大量關鍵基礎設施運行在老舊代碼上,它們過去的安全性主要依賴一個前提——攻擊它們需要大量人力,「如果這個安全范式本身不再成立呢?」
你依賴的系統,正在失去保護
網絡安全是個有點高大上的詞,實際上,它和每個上網人的日常息息相關。
最典型的是 FFmpeg,這個開源的視頻處理庫,負責視頻的解碼、編碼和轉換。YouTube、Netflix、Bilibili、微信視頻號、VLC 播放器,幾乎所有需要播放或處理視頻的軟件都直接或間接依賴它。你每天在手機上看視頻的時候,FFmpeg 的代碼很可能正在你的設備上運行。
![]()
這樣基礎的設施,代碼里藏著一個 16 年的漏洞,16 年來都沒有人發現,想來問題也是不大了——直到 Mythos 出現。
Mythos 在這些系統中找到的漏洞,曾經沒有造成問題,只是因為找到這些 bug 需要大量的人類專家時間。現在,這個阻礙不存在了。
《紐約時報》4 月 6 日的報道描繪了更廣泛的圖景:AI 正在從根本上改變網絡安全的攻防格局。黑客使用 AI 加速攻擊,防御方也只能用更多的 AI 來回應,人類安全專家正在被擠出攻防第一線。
![]()
第二天,TIME 報道了 Google 和量子計算初創 Oratomic 的最新研究,AI 輔助下的量子計算機破解互聯網加密協議的時間可能比預期提前數年。Oratomic 的研究團隊使用 AI 工具優化算法,將構建危險量子計算機所需的量子比特數減少了 100 倍。聯合創始人 Dolev Bluvstein 說:「我們用了 AI 來加速這項研發,毫無疑問。」
Cloudflare 的安全研究員 Bas Westerbaan 的評估更是直接,「幾乎世界上每一個系統都會變得對量子攻擊者脆弱。」
![]()
發現問題,就會負責到底嗎?
Anthropic 是硅谷最常舉起「負責任 AI」大旗的公司之一,創始人從 OpenAI 離職,理由就是擔心 AI 安全。A 社每年發布大量安全研究,而與此同時,也是 A 社,制造了一個對網絡安全最有殺傷力的武器。
負責任披露和威脅示警之間,只有一層薄薄的邊界。順著 Mythos 的發布,Anthropic 也牽頭成立了 Project Glasswing,先把這個工具給到防御方(關鍵基礎設施和開源項目),讓他們在類似能力的模型廣泛可用之前修復最重要的漏洞。
![]()
這是最反直覺的部分:發現這些問題的公司,恰恰是一直在警告這些問題的公司。Anthropic 沒有在假裝一切安全。它在大聲說:我們造了一個危險的東西,我們知道它危險,我們正在盡力讓防御方先行一步。但他們也知道,其他公司的類似模型很快就會跟上。通過公開展示危險性,Anthropic 同時實現了兩個目標:它建立了自己作為安全權威的地位,也向潛在客戶證明了 Mythos 的能力上限。「這個模型強大到連我們自己都害怕」,這句話既是警告,也是廣告。
而與此同時,你的瀏覽器、你使用的云服務、你的視頻平臺、你的加密通信,這些系統的安全范式正在被重新定義。它們所披著的安全罩,正在變得越來越脆弱。過去它們「安全」是因為攻擊者需要大量的人力和時間來發現和利用漏洞,現在一個模型幾小時就能完成同樣的工作。
AI 安全已經不是一個行業話題,關乎你我,而 Mythos 僅僅只是開始。
我們正在招募伙伴
簡歷投遞郵箱hr@ifanr.com
?? 郵件標題「姓名+崗位名稱」(請隨簡歷附上項目/作品或相關鏈接)
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.