信息無損Token最高節(jié)省87%,一款省Token神器正在GitHub躥紅。
短短3天,純靠口口相傳,GitHub總攬星4.1K,增長曲線更是堪比“旱地拔蔥”:
![]()
連開發(fā)這個(gè)項(xiàng)目的19歲外國小哥也懵了,直呼屬實(shí)沒想到。
本來是自己隨手花10分鐘寫的一個(gè)“joke”,結(jié)果卻意外受到大家的追捧。
![]()
他之所以將其稱為“joke”,也實(shí)在是因?yàn)檫@個(gè)名為caveman(山頂洞人)的項(xiàng)目,背后原理過于簡單:啰嗦并不總是更好,有時(shí)字?jǐn)?shù)少=更正確。
沒錯(cuò),這個(gè)給Claude Code/Codex用的插件,核心目標(biāo)就是讓Agent“像山頂洞人一樣說話”(俗稱言簡意賅)。
比如明明給的解決方案一樣,普通Claude需要用一大段話來描述:
(翻譯)你的React組件之所以會(huì)重新渲染,很可能是因?yàn)槟阍诿看武秩局芷谥卸紕?chuàng)建了一個(gè)新的對(duì)象引用。當(dāng)你將一個(gè)內(nèi)聯(lián)對(duì)象作為prop傳遞時(shí),React的淺層比較會(huì)認(rèn)為它每次都是一個(gè)不同的對(duì)象,從而觸發(fā)重新渲染。我建議你使用 useMemo 來緩存該對(duì)象。
而caveman則相當(dāng)簡潔:
(翻譯)每次渲染都會(huì)創(chuàng)建新的對(duì)象引用。內(nèi)聯(lián)對(duì)象作為prop傳遞=新的引用=觸發(fā)重新渲染。用useMemo包裹起來即可。
初步測試顯示,它在保持完全技術(shù)準(zhǔn)確性的同時(shí),將輸出Token減少約75%。
此外還有一個(gè)配套工具,可以壓縮用戶的記憶文件,從而將每次會(huì)話的輸入Token減少約45%。
目前這個(gè)插件在支持skills的環(huán)境中,已經(jīng)可以一行安裝:
- npx skills add JuliusBrussee/caveman
“有時(shí)少數(shù)Token就夠了”
老實(shí)說,讓Agent學(xué)會(huì)言簡意賅從而節(jié)省Token的想法,也不是第一天出現(xiàn)了。
開發(fā)caveman的小哥就提到,今年3月的一篇論文已經(jīng)發(fā)現(xiàn):
通過簡潔性約束(強(qiáng)制簡短回答),大模型的準(zhǔn)確率提升了26個(gè)百分點(diǎn),而且在數(shù)學(xué)推理和科學(xué)知識(shí)基準(zhǔn)上,完全逆轉(zhuǎn)了性能層級(jí)(原本大模型不如小模型,結(jié)果后來反超了)。
![]()
所以小哥就說了,caveman的誕生就源于這樣一個(gè)人所共知的觀察——
“山頂洞人式表達(dá)”(caveman-speak)能大幅減少大語言模型的Token使用量,同時(shí)不損失技術(shù)實(shí)質(zhì)內(nèi)容。
來看一組Before/After你就明白了:
![]()
表達(dá)同樣一個(gè)修復(fù)任務(wù),正常Claude需要用到69個(gè)Tokens,而caveman只需要19個(gè)。
Token一下子就節(jié)省了約75%,且不影響Agent理解任務(wù)需求以及給出解決方案。
據(jù)小哥介紹,caveman會(huì)完全保留以下內(nèi)容:
代碼塊、行內(nèi)代碼、URL、文件路徑、命令、標(biāo)題、表格結(jié)構(gòu)、日期、版本號(hào)等。任何技術(shù)性內(nèi)容都保持原樣通過,只有自然語言文本會(huì)被壓縮。
換言之,只有一些不必要的廢話會(huì)被丟掉。(p.s:之前Claude Code一句“你好”就干掉13%的額度)
![]()
當(dāng)然,你還能自己控制Agent的簡潔程度,從啰嗦到極簡(Lite→Full→Ultra)任你選。
- Lite:刪掉客套話和廢話,保留基本語法結(jié)構(gòu);
- Full:caveman標(biāo)準(zhǔn)版,會(huì)省略“一個(gè)”、“這個(gè)”之類的冠詞,句子只說關(guān)鍵詞片段,偶爾會(huì)配上一些簡短的語氣詞,說話風(fēng)格有點(diǎn)像山頂洞人;
- Ultra:極致壓縮模式,能省則省。
![]()
至于究竟能節(jié)省多少Token,小哥也在真實(shí)的Claude API上測試了一下(可復(fù)現(xiàn))——
10個(gè)任務(wù),最終節(jié)省的Token范圍為22%–87%,平均下來高達(dá)65%。
具體任務(wù)包括但不限于:解釋React重渲染bug、修復(fù)認(rèn)證中間件Token過期問題、設(shè)置PostgreSQL連接池、解釋git rebase與merge的區(qū)別、重構(gòu)回調(diào)為async/await……
![]()
不過小哥也提醒,caveman僅影響輸出Token,思考/推理Token不受影響。
caveman不會(huì)讓大腦變小,會(huì)讓嘴巴變小。最大的勝利是可讀性和速度,成本節(jié)約是額外的好處。
具體安裝方式如下:
如果你用的是
Cursor/Copilot/Windsurf/Claude Code這類AI編程工具,在支持skills的環(huán)境中,可以一行安裝:
- npx skills add JuliusBrussee/caveman
如果你想明確裝到某個(gè)Agent,可以像這樣:
- npx skills add JuliusBrussee/caveman -a cursor
npx skills add JuliusBrussee/caveman -a copilot
npx skills add JuliusBrussee/caveman -a cline
npx skills add JuliusBrussee/caveman -a windsurf
Claude Code用戶還能這樣裝:
- claude plugin marketplace add JuliusBrussee/caveman
claude plugin install caveman@caveman
Codex相對(duì)麻煩一點(diǎn),需要先clone倉庫,在項(xiàng)目里打開Codex,然后通過/plugins搜索Caveman并手動(dòng)安裝。
裝完后,選擇caveman模式或直接說“像caveman那樣說話”“請少用一些Token”,就能召喚山頂洞人。
停止的話,也是切到正常模式或直接說“stop caveman”即可。
背后是一位年僅19歲的開發(fā)者
有意思的是,caveman的作者也相當(dāng)年輕——
Julius Brussee,目前19歲,正在荷蘭萊頓大學(xué)讀大一,專業(yè)為數(shù)據(jù)科學(xué)與人工智能。
![]()
雖然剛上大學(xué),但他已經(jīng)是個(gè)比賽和創(chuàng)業(yè)經(jīng)驗(yàn)都很豐富的“老手”了(bushi。
2025年1月,他創(chuàng)辦了Revu Labs,主要開發(fā)Revu這款原生macOS學(xué)習(xí)應(yīng)用。
簡單來說,Revu能自動(dòng)把你上傳的PDF變成學(xué)習(xí)材料,然后用和多鄰國差不多的智能算法安排復(fù)習(xí)。它背后有多個(gè)Agent協(xié)同干活,同時(shí)保證數(shù)據(jù)零損壞、全本地化。
然后他又參加了埃因霍芬理工大學(xué)的創(chuàng)新大賽,比賽過程中構(gòu)建了一個(gè)企業(yè)級(jí)知識(shí)管理平臺(tái)Stacklink。
這一次更復(fù)雜,Stacklink需要將公司分散在各處的信息(如Google Docs、Slack、Notion)全部接進(jìn)來,然后統(tǒng)一建索引,尤其是還要考慮AI幻覺問題。
再到最近,他又聯(lián)合創(chuàng)辦了Pitchr這家公司,擔(dān)任產(chǎn)品與技術(shù)負(fù)責(zé)人。
一看Pitchr的產(chǎn)品,估計(jì)大家都會(huì)會(huì)心一笑,因?yàn)樗菍iT開發(fā)AI演講輔助平臺(tái)的(幫你更好展示PPT)。
![]()
以及履歷中暫無,但Julius自己補(bǔ)充的一點(diǎn):
之前還創(chuàng)辦了Locked In(集成NFC的iOS生產(chǎn)力應(yīng)用,首周留存率100%)和Neurabridge(曾獲經(jīng)濟(jì)學(xué)人報(bào)道的AI咨詢公司)。
不過,雖然開發(fā)了這一連串項(xiàng)目,但caveman的意外走紅也讓Julius無限感慨:
好好好,隨手寫的“joke”火了,而我花了幾個(gè)月時(shí)間用心打磨的Revu、Stacklink……卻沒有這種待遇。
大家都很喜歡caveman這個(gè)功能。人們紛紛安裝,我笑得前仰后合。
但這里有個(gè)沒人談?wù)摰氖虑椤一藥讉€(gè)月時(shí)間認(rèn)真做的項(xiàng)目,在同周也獲得了認(rèn)可,但關(guān)注程度卻沒那么高。我并非抱怨,只是在觀察。
傳播的關(guān)鍵在于共鳴,那個(gè)梗打開了門。真正的工作在背后。
caveman爭議也不少
當(dāng)然了,caveman的走紅也不止是因?yàn)椤白孉I像原始人說話”這個(gè)梗,背后也不乏一些爭議。
討論較多的有兩點(diǎn):
- 大部分節(jié)省的都是輸出Token,而真正的成本是上下文輸入Token。
- 強(qiáng)迫大模型更簡潔是否會(huì)讓它變笨。
![]()
對(duì)此,作者也現(xiàn)身Hacker News評(píng)論區(qū)瘋狂疊甲:
這項(xiàng)技能并不是為了減少隱藏的推理/思考Token。Anthropic自己的文檔建議更多的思考預(yù)算可以提高性能,所以我不會(huì)提出相反的觀點(diǎn)。
它所針對(duì)的是可見的完成:更少的開場白,更少的填充內(nèi)容,更少的精致但非必要的文本。因此,由于完成后的輸出被“原始化”了,代碼完全沒有受到這項(xiàng)技能的影響。
公平的批評(píng)是,我“~75%”的READM數(shù)據(jù)來自初步測試,而非嚴(yán)格的基準(zhǔn)測試。這應(yīng)該更謹(jǐn)慎地表述,我現(xiàn)在正在做一個(gè)正式的評(píng)估。
![]()
翻譯過來就是,降本只是附帶的、減少的是不必要的Token所以一般不會(huì)變笨。
在作者看來,caveman只是一個(gè)有趣的想法,比一些人以為的使用范圍要窄,接下來還需要更精確的基準(zhǔn)測試。
而這,也和部分網(wǎng)友得出的結(jié)論差不多:
因?yàn)橛腥ず驼嬲斆鞯販p少了輸出Token而獲得A+。
但它不是降低總成本的靈丹妙藥,可能會(huì)讓Claude的智商下降幾個(gè)點(diǎn)。
![]()
所以,有試過的朋友分享下感受如何嗎(觀望.jpg)?
GitHub:
https://github.com/JuliusBrussee/caveman
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.