一、愚人節獻禮
愚人節的早上,全球 AI 圈喜迎 Claude Code"開源"。
3 月 31 日,安全研究者發現 Anthropic 發布到 npm 的 Claude Code 包里,意外帶出了 source map 文件,進而暴露了大量原始 TypeScript 源碼。公開報道普遍提到,這次外泄大約涉及近 1900 個文件、超過 51 萬行代碼,而且很快就被鏡像到 GitHub 等平臺。Anthropic 對外也承認,這不是黑客入侵,而是打包錯誤,沒有客戶數據或憑證泄露,但代碼本身已經被大量開發者下載和研究。
事情一出來,網友們調侃:是不是全球做大模型,做 agent,做 coding tool 的團隊,昨天晚上都在加班拆代碼,做研究。
聽著像段子,但全球 AI 同行們仔細觀摩和研究,也是大概率。
因為這次泄露最有價值的,從來不只是某幾個彩蛋功能,而是它把一個已經跑進生產環境、已經在開發者圈形成影響力的 AI 編程產品,幾乎整套工程藍圖都攤開了。公開報道提到,這份泄露代碼不只包含 Claude Code 本身,還帶出了不少未發布功能,比如帶有賽博寵物色彩的 BUDDY,以及更接近"常駐記憶助手"的 KAIROS。外界第一次這么近地看到,一個頭部 AI coding agent 到底是怎么被搭出來的。
這件事對 AI 行業帶來的第一個影響,非常直接:它會顯著加快全行業對 agent 產品形態的理解速度。
過去這一年,AI 行業表面上在卷模型,底下其實越來越在卷產品級工程:工具怎么調、權限怎么控,長鏈路任務怎么拆、多代理怎么協同、狀態怎么保存,和 IDE、終端,云端環境怎么打通。論文會告訴你方向,Benchmark 會告訴你分數,但一個真正能用的產品怎么做,很多時候只能靠團隊自己摸。
過去很多團隊對"agent 到底該怎么做"停留在概念層、demo 層,甚至 PPT 層;現在它突然多了一份來自頭部廠商的"實物拆解圖"。
Anthropic 用一種最尷尬的方式,把自己的一部分"解題過程"公開了。對很多同行來說,這種價值不是"抄一段代碼"這么簡單,而是第一次看到了一個成熟產品的結構樣板。
這個沖擊,可能比模型參數泄露還大。
所以網友調侃"昨晚全球大模型團隊都在加班研究",并不夸張。
這件事真正微妙的地方在于,它不是一場正式發布,卻起到了比正式發布更強的行業示范效應。發布會能告訴你方向,源碼會告訴你解法;論文能告訴你理念,工程結構會告訴你產品到底是怎么跑起來的。AI 行業接下來幾個月,尤其是 coding agent、terminal agent、多代理協作這幾個方向,很可能都會受到這次事件的間接推動。
二、來都來了,是不是能隨便用?
但這里馬上就會引出第二個問題,也是很多開發者會關心的:既然來都來了,是不是就意味著可以肆無忌憚地用?
答:不是。
因為這次事件嚴格說根本不是一次"正式開源",而是一次"被動泄露"。Anthropic 事后不僅承認是打包失誤,還在推進下架和補救措施,它的態度很明確,不是"歡迎大家 fork 使用",而是"這本來就不該公開"。
真正的開源,前提是原始權利人明確授予許可,告訴你可以用、可以改、可以分發,甚至可以商用;而這次 Claude Code 的情況,更接近"受版權保護的代碼因為工程錯誤流到了公網"。能看到,不等于有權利隨便用;被人備份,不等于它自動進入了公共領域。
這一點,其實可以參考特斯拉的案例。
2014 年,特斯拉曾高調宣布,對那些"善意使用"其電動車相關專利的人,不會主動發起專利訴訟。這件事后來經常被當作"科技公司開放生態"的經典案例來講,很多人也因此形成了一種印象:特斯拉對外是很開放的。
但問題在后面。特斯拉隨后在官方法律說明里把邊界寫得很清楚:這個承諾,更接近一種"在特定條件下暫不主張專利權"的安排,并不是正式授權,不是許可證,也不是放棄權利。更重要的是,這個"不起訴"本身帶著前提條件,包括對方必須屬于"善意使用",不能反過來主張針對特斯拉的知識產權,不能挑戰特斯拉的專利,也不能做簡單模仿和替代性的競品。也就是說,特斯拉確實表現出了開放姿態,但這種開放從來不是沒有條件的。
后面和小鵬相關的糾紛,其實就把這個問題放到了更現實的位置。2019 年,特斯拉起訴前自動駕駛團隊員工曹光植,指控其離職前把與自動駕駛相關的大量源代碼和文件上傳到個人云端賬戶,隨后加入小鵬汽車。財新當年的報道提到,特斯拉指控其上傳了超過 30 萬個文件和目錄。這個案子后來雖然走向和解,但它已經足夠說明一件事:專利層面可以講開放,到了源代碼,工程實現和商業秘密這些真正影響競爭力的地方,公司通常不會那么大方。
這個道理放到 Claude Code 這次事件里也一樣。代碼流出來了,不等于授權也流出來了。你能看到,不等于你能拿來商業化地復制、修改和分發。技術開放和權利放棄,不是一個概念;公開姿態和具體授權,也不是一個概念。特斯拉這個案例,正好把這件事說明白了。
今天 AI 行業最危險的,不是大家都想學,而是很多人會在一種集體興奮中,誤把"公開可見"理解成"默認可用"。而這種誤解,一旦落到真實產品開發里,后面通常都不會太輕松。
三、真拿來開發產品,有什么風險?
如果別的廠商或者創業團隊,真的用這次泄露出來的 Claude Code 源碼來開發產品,會有什么潛在風險?
我覺得大致三個方面。
第一層,是最直接的版權和許可風險。如果原始代碼沒有明確授權,你直接復制、修改,商用、分發,本身就可能踩到知識產權紅線。你拿它研究思路、看架構、理解產品形態,這是一回事;你把具體代碼、文件結構、實現方式大規模挪進自己的商業產品里,這是另一回事。尤其 AI 行業現在節奏快,很多創業者最容易犯的錯誤就是"先做出來再說"。可這種東西一旦真的落進產品,后面如果被認定存在侵權或未授權使用問題,補救成本會非常高。
第二層,是商業秘密和不正當競爭風險。很多團隊會有一個很天真的想法:既然它已經泄露了,既然網上都能下,那我再利用一下,也沒什么吧。現實里事情沒這么簡單。一個東西因為對方失誤而暴露出來,如果你明知道代碼來源有問題,還把它作為商業產品的加速器,爭議很容易從"版權"進一步走向"明知有問題仍然利用""借他人失誤進行商業性搭便車"這類更復雜的風險。特斯拉和小鵬相關糾紛,已經把這個邊界感演示得很清楚了。別人可以講生態開放,不代表你就可以把真正影響競爭力的東西直接搬走。
第三層,是安全和責任風險。這次泄露出來的,不只是一些好玩的小功能,還有權限系統、工具鏈、多代理協調等更接近"生產級 agent 系統骨架"的東西。而就在泄露前后,Anthropic 還在持續對外強調 Claude Code 的自動模式和安全使用邊界,提醒開發者即便有新的自動能力,也依然建議在安全、隔離環境里使用,因為系統不能完全消除風險。一個成熟大廠自己都還在一邊做 agent 自主執行,一邊反復補安全護欄。你如果直接拿一套未經正式交付、未經完整許可、甚至可能帶有隱藏問題的泄露代碼去做商業化,最后一旦出了安全事故、權限失控、錯誤執行或者造成用戶損失,責任不會因為"這是網上流出來的代碼"就自動變輕。
所以,這件事對創業者真正的提醒,不是"又多了一個抄作業的機會",而是"技術上的捷徑,未必是商業上的捷徑"。你拿它研究,可以;拿它理解方向,也可以;但你真把它當成自己的底座往商業化上走,后面的版權、競爭和安全責任,很可能會一起找上門來。很多時候,省下來的研發時間,最后會以另一種更貴的方式還回去。
四、AI 時代,安全不只是模型
這次 Claude Code 事件最有諷刺意味的地方,還是安全。
Anthropic 過去幾年一直在強調安全、審慎、邊界、對齊。結果這次真正把自己送上熱搜的,不是一次更安全的發布,而是一個很"初級"的打包失誤。
短期看,這是一次公關災難;中期看,它幾乎等于給整個 agent 行業辦了一場"民間技術交流發布會";長期看,它其實提醒了所有 AI 公司一件事:今天真正值錢的,不只是模型本身,而是你圍繞模型搭起來的那整套產品和工程體系,以及更重要的,在 AI 時代,我們如何確保安全。
Anthropic 自己在 3 月底還在大力推進 Claude Code 的自動模式,強調一邊增強自主執行能力,一邊用分類器和安全約束去減少風險操作。結果幾天之后,最讓它難堪的,卻不是一個前沿模型風險,而是一次發布流程里的低級失誤。
這個反差,本身就很說明問題。
所以,AI 行業下一階段真正要補的課,可能不只是"模型更強",而是"系統更穩"。不只是讓 agent 更自主、更聰明、更像數字員工,而是要讓整套產品鏈路更可控、更可審計、更可追責。
從這個意義上說,這次事件真正暴露的,不只是 Anthropic 的一次疏忽,而是整個 AI 行業正在共同面對的一道題:當模型越來越強、agent 越來越能干,產品越來越接近真實世界執行層時,我們到底有沒有與之匹配的安全能力、發布紀律和工程安全能力?
這件事,可能比 Anthropic 這次泄露本身,更值得整個 AI 行業警惕。
本文作者
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.