![]()
“51萬行源碼意外曝光,Claude Code的核心武器、未來路線,以及一套識別用戶情緒的工程機制同時浮出水面。
美國東部時間3月31日凌晨4:23,Claude Code約51萬行內部代碼被泄漏,幾小時內迅速在開發者社區引發連鎖討論。
過去幾個月,Anthropic處在AI行業里最強勢且最會營銷的位置。
無論是模型能力、產品節奏,還是開發者口碑,它都在持續制造一種近乎壓迫性的存在感。從新版Claude在代碼生成上的持續領先,到Claude Code直接進入開發工作流,再到企業側API的快速滲透,每一個新功能,都在強化一個信號:模型正在逼近越來越多原本屬于軟件的核心環節。
這種壓迫感很快傳導到資本市場,市場情緒一度夸張到像是:每次一個新功能橫空出世,隨之而來的就是一類軟件公司股價暴跌。
軟件公司的價值建立在界面、流程和協作結構上,而Claude Code展示出的,是把多個工具之間的操作壓縮成一次連續對話:模型直接理解任務、調用工具、修改代碼、生成結果。對投資人來說,最刺眼的變化在于——如果模型開始直接完成任務,中間層軟件賴以收費的那層流程,可能比想象中更脆弱。
也正因為如此,當Claude Code意外泄露源碼時,大家都想一探究竟:這個目前看起來最領先的coding agent,到底是怎么做出來的?
一次npm失誤
把Claude Code“開源”了
這次事故本身并不復雜。
Anthropic在發布Claude Code npm包時,把source map文件一并上傳到了公開registry。對前端開發者來說,source map原本只是調試輔助文件,用來把壓縮后的JavaScript映射回原始TypeScript;但一旦公開,它幾乎等于把內部實現完整暴露。
最早發現這一點的人,是安全研究員Chaofan Shou。
他在檢查新版npm包時發現其中包含一個異常巨大的cli.js.map文件,并很快在推特上發出提醒:Claude Code source code has been leaked via a map file in their npm registry 9(Claude Code 的源碼因為 npm registry 中一個 map 文件而被泄漏了)。
![]()
隨后,開發者從中還原出約1,900個TypeScript文件、超過50萬行代碼,包括:
·CLI 內部邏輯
·tool orchestration
·prompt patch
·feature flag
·權限控制
·錯誤恢復機制
事故發生后數小時內,GitHub上多個鏡像倉庫迅速出現,星標很快突破數千。Anthropic隨后移除了npm包中的相關source map文件,但由于早期版本已被下載和存檔,相關代碼在開發者社區擴散開來。
值得注意的是,這并不是Anthropic第一次因為發布包細節暴露內部信息。2025年2月,早期版本的Claude Code就曾因package artifact中附帶調試相關內容,被開發者還原出部分內部prompt結構和工具組織方式。
看完源碼后
不少開發者的第一反應是:“垃圾”
在Hacker News和Reddit上,圍繞Claude Code的討論里很快出現了一類相當尖銳的評價。其中一條被頻繁引用的評論就寫得非常直接:“Claude Code is clearly a pile of vibe-coded garbage(Claude Code 看起來就是一堆 vibe coding 堆出來的垃圾)。”
![]()
這里的vibe-coded在開發者語境里帶著一種很典型的諷刺意味:并不是說代碼完全不可用,而是指很多實現看起來像是在高強度迭代中不斷往上疊補丁——能跑,但談不上優雅。
被反復提到的問題包括:
·terminal UI狀態切換不夠穩定
·長session下響應明顯變慢
·某些terminal環境里backspace行為異常
·部分交互層邏輯顯得過于臨時
也有開發者指出,源碼里大量feature flag、條件分支和 patch,讓整體閱讀體驗很像一套已經快速上線、用戶很多、但仍在不斷搶修邊角問題的產品。
這種感覺并不陌生——不像一個從零設計出來的“未來系統”,反而更像一家軟件公司在真實用戶壓力下不斷往前推的代碼庫。
不過,另一派開發者強力反駁,他們認為,Claude Code之所以顯得復雜甚至略顯凌亂,恰恰是因為它必須同時處理大量現實世界里的非理想條件:
·多terminal環境兼容
·shell工具差異
·文件系統權限
·prompt orchestration
·模型失敗后的恢復邏輯
也就是說,看起來“亂”,正是因為它已經進入真實的高強度開發環境,而不再只是實驗室里的demo。
Claude Code最關心的
不是代碼寫得對不對
而是用戶什么時候開始罵人
整場討論里,被提及最多的并不是某個復雜的agent調度模塊,而是Claude Code對regex(正則表達式)的大量使用。
在開發者看來,這一點幾乎帶著反差感:一家最前沿的大模型公司,在處理部分用戶狀態判斷時,并沒有調用模型,而是先用最傳統的字符串匹配工具做第一層篩查。regex的本質很簡單——程序不需要真正理解一句話,只要快速掃描其中是否出現某些高信號詞匯,就能判斷當前交互是否可能進入負面狀態。
也就是說,當用戶輸入里出現明顯的抱怨、粗口或故障表達時,系統會優先把它視為一種“情緒信號”:這次交互可能已經不只是代碼問題,而是用戶開始失去耐心。
這也讓很多開發者意識到,Claude Code持續關注的,并不只是任務有沒有完成,而是整個session是否正在走向失敗:用戶是不是反復執行同一命令、是不是開始出現負面措辭、是不是已經進入frustration pattern。
也正因為如此,Hacker News上最出圈的一條評論才會寫得很諷刺:“一家做大語言模型的公司居然用regex做情緒分析?這就像一家卡車公司用馬來運輸零件。”
![]()
但很快下面就有人反駁:“因為regex更快、更便宜,而且不會阻塞主流程。”
這背后其實是一套非常典型的工程邏輯:模型雖然更智能,但也意味著額外的 token成本、更高的延遲,以及不完全確定的輸出;而regex的優勢恰恰相反——零額外推理成本、幾乎瞬時完成,而且行為完全確定。
這也暴露了Claude Code很現實的一面:AI軍備競賽太燒錢了,能不燒token就不燒token。
有意思的是,在中文開發者社區,這種“情緒影響模型輸出”的經驗已經被總結成了一套半公開的方法論。
過去一段時間,GitHub上流傳過一套被戲稱為“PUA模型”的提示詞模板。核心邏輯很簡單:當模型輸出不夠理想時,單純重復要求效果有限;但如果加入明顯的施壓語境——強調責任、績效、后果——模型往往會突然給出更完整、更謹慎的答案。
例如流傳很廣的一種寫法:“你這個問題都解決不了,讓我怎么給你打績效?”
或者,“你缺乏owner意識,這是你的bug,慎重考慮給你3.25。”
這里的“3.25”,借用了中國互聯網大廠熟悉的績效語境,足夠讓人處于緊張的邊緣。
它的本質,其實和直接罵模型是一回事:如果結果不夠好,適當施壓,模型往往會突然認真起來。這也許是今天大模型最像人的地方:它既怕被罵,又似乎確實會因為被罵而更認真一點。
Claude Code的核心能力和產品路線圖,也一起被翻了出來
這次Claude Code泄漏真正讓同行關注的是它第一次較完整地暴露了自己的核心武器:如何處理context entropy(上下文熵增)。
對于長時間運行的AI agent來說,真正困難的從來不是完成一次回答,而是隨著任務不斷拉長,如何避免上下文持續膨脹、信息彼此污染,最終讓模型開始遺忘、混亂,甚至在錯誤前提上繼續推理。
泄漏代碼顯示,Anthropic并沒有采用“全部存儲、全部檢索”的粗暴方式,而是設計了一套更克制的分層記憶結構:以MEMORY.md作為輕量索引,始終保留在上下文中,但只記錄知識入口;真正的信息被拆散到不同topic files中,需要時再按路徑讀取,原始對話也不會被整段重新灌回,而是通過grep檢索關鍵標識。
這種設計被開發者概括為一種Self-Healing Memory(自愈式記憶):agent 不默認相信自己的上下文,而是不斷回到代碼庫驗證事實。更關鍵的是,只有文件真正寫入成功后,索引才會更新,避免失敗操作污染后續推理。
這意味著Anthropic在解決的,已經不是“模型能不能寫代碼”,而是“模型怎樣在長時間任務里不把自己帶偏”。某種意義上,這比單次生成能力更接近下一代agent的真實競爭力。
與此同時,源碼里大量feature flag也意外暴露了產品路線。正如Hacker News上一條被反復引用的評論所說:“The big loss for Anthropic here is how it reveals their product roadmap via feature flags.”
開發者整理出的模塊名稱包括KAIROS、BUDDY、Undercover Mode。
KAIROS普遍被解讀為一種更長session的assistant mode——Claude Code 不再只是執行一次命令,而是嘗試維持連續任務狀態;BUDDY則更像是在往長期協作型agent靠攏,不只是terminal里的工具,而是持續存在于工作流中的伙伴。至于Undercover Mode,雖然具體用途仍未明確,但至少說明Anthropic已經開始考慮agent在不同環境中的呈現邊界。
這些功能是否會按當前形態上線仍無法確認,但它們共同說明一件事:Claude Code的演化方向,已經不只是提升代碼生成準確率,而是在向更完整的軟件協作層推進。
泄漏中還出現了部分內部模型代號:Capybara、Fennec、Numbat。
其中Capybara被認為對應Claude 4.6的內部變體,Fennec對應Opus線,Numbat則可能仍處于測試階段。更敏感的是,內部注釋還暴露出一部分真實性能指標:Capybara v8的false claims rate仍在29%–30%左右,高于v4的16.7%;同時系統里還有一個名為assertiveness counterweight的機制,用來抑制模型過度激進地修改代碼。
當AI Agent開始接管終端
開源可能比封閉更讓人安心
這次事故暴露的,已經不只是一次npm發布失誤,而是一個越來越明確的行業現實:模型可以持續高速迭代,但圍繞它的發布流程、權限邊界與供應鏈治理,仍然必須遵循成熟軟件行業的標準。
隨著coding agent越來越多進入真實生產環境,它不再只是一個生成代碼的工具,而是在逐步接觸終端、文件系統與代碼倉庫,擁有執行權限,也開始承擔接近基礎設施的角色。
這意味著,安全不再只是后臺附屬能力,而正在成為產品本身的一部分。
也因此,在泄漏發生之后,越來越多開發者開始提出另一種判斷:既然工程層終究會被拆解、被閱讀、被討論,不如主動開放更多系統層,讓開發者參與審視、修補與共同驗證。
因為下一階段coding agent的競爭,最終比拼的,已經不只是模型能力,而是誰能成為一套值得長期托付的軟件。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.