![]()
作者 | 董道力
郵箱 | dongdaoli@pingwest.com
3 月 25 日,首爾證券交易所開(kāi)盤不到兩小時(shí),SK Hynix 跌近 6%,三星跌 4.8%,KOSPI 指數(shù)單日大跌 3%。同一天,美股的 Micron 跌 7%,SanDisk 跌 6.8%,Lam Research 跌 5%。
全球的內(nèi)存公司迎來(lái)黑色的一天,堪比 DeepSeek 在春節(jié)引發(fā)的核爆。
而引發(fā)這波跌停潮的,是谷歌研究院發(fā)布的一篇博客文章。博客介紹了一個(gè)叫 TurboQuant 的壓縮算法,說(shuō)它能把 AI 的KV Cache存儲(chǔ)需求降低 6 倍。
市場(chǎng)邏輯是,過(guò)去兩年,內(nèi)存芯片廠商的股價(jià)漲了 300%,靠的是一個(gè)共識(shí):AI 越來(lái)越能干,就需要越來(lái)越多的內(nèi)存,需求沒(méi)有天花板。
![]()
現(xiàn)在Google的新算法既然是解決了“存儲(chǔ)”的問(wèn)題,那必然就打破了內(nèi)存需求的邏輯。而市場(chǎng)也有點(diǎn)苦內(nèi)存久已。
于是,華爾街一致認(rèn)定這就是類似DeepSeek的時(shí)刻,內(nèi)存股應(yīng)聲大跌。
這樣的陣仗也迅速傳遞到中文世界,大家也在討論Google又帶來(lái)了一個(gè)DeepSeek時(shí)刻。
然而,這一切其實(shí)都是一場(chǎng)烏龍。
不止是這篇引發(fā)血案的論文都不是今天新的成果——TurboQuant 論文最早于 2025 年 4 月 28 日上傳到 arXiv(編號(hào) arXiv:2504.19874),至今已經(jīng) 11 個(gè)月。這期間,無(wú)人談?wù)摗?/p>
![]()
而且更荒誕的是,如果你仔細(xì)閱讀這個(gè)研究,會(huì)發(fā)現(xiàn)它跟引發(fā)內(nèi)存股暴跌的邏輯毫無(wú)關(guān)系,談不上什么DeepSeek時(shí)刻。
是的,又一場(chǎng)FOMO之下的詭異全民狂歡。
谷歌論文說(shuō)了什么?
要理解 TurboQuant,先要理解一件事:大模型跑推理時(shí),真正的內(nèi)存大頭不是模型本身,而是對(duì)話過(guò)程中產(chǎn)生的緩存。
每當(dāng)模型處理一段對(duì)話,它需要"記住"所有歷史 token 的信息。這些信息被存成 Key-Value 鍵值對(duì),叫做 KV Cache,實(shí)時(shí)寫入顯存。上下文越長(zhǎng),KV Cache 越大。一個(gè) 128K context 的會(huì)話,單次推理的 KV Cache 就可以輕松超過(guò)幾十 GB,對(duì)于同時(shí)服務(wù) 512 個(gè)用戶的 70B 參數(shù)模型,KV Cache 消耗的顯存可以是模型權(quán)重的 4 倍。
這就是為什么大模型服務(wù)商對(duì)長(zhǎng)上下文收取額外費(fèi)用,也是"Prompt Caching"作為獨(dú)立計(jì)費(fèi)項(xiàng)出現(xiàn)的原因。KV Cache 不是算力問(wèn)題,是內(nèi)存帶寬和容量問(wèn)題。
TurboQuant 解決的,正是這個(gè)問(wèn)題。
傳統(tǒng)壓縮方法有一個(gè)隱藏成本:每壓縮一塊數(shù)據(jù),就需要額外存儲(chǔ)"量化常數(shù)"(用來(lái)還原的元數(shù)據(jù)),每個(gè)數(shù)字額外付出 1 到 2 bit 的代價(jià)。壓縮越多,這個(gè) overhead 越不可忽視——就像買了個(gè)小行李箱,但行李箱本身就重 10 斤。
TurboQuant 用兩步解決了這個(gè)問(wèn)題。
第一步是隨機(jī)旋轉(zhuǎn)量化(TURBOQUANTmse):對(duì)向量施加隨機(jī)旋轉(zhuǎn)矩陣,使每個(gè)坐標(biāo)無(wú)論原始分布如何,都服從集中的Beta分布。Transformer注意力機(jī)制依賴的是向量之間的內(nèi)積,不是每個(gè)數(shù)字的絕對(duì)值。旋轉(zhuǎn)之后,坐標(biāo)分布變得集中且可預(yù)測(cè),可以用一套預(yù)計(jì)算好的最優(yōu)標(biāo)量量化表(Lloyd-Max算法)逐坐標(biāo)壓縮,完全不需要存儲(chǔ)per-block的量化常數(shù)。overhead歸零。
第二步叫 QJL(量化 Johnson-Lindenstrauss 變換):第一步之后還有一點(diǎn)殘差誤差。直接扔掉會(huì)導(dǎo)致內(nèi)積估計(jì)產(chǎn)生系統(tǒng)性偏差,影響注意力計(jì)算的準(zhǔn)確性。QJL 用 1 bit 處理這點(diǎn)殘差,利用 Johnson-Lindenstrauss 變換保證估計(jì)無(wú)偏。
結(jié)果就是,KV Cache 被壓縮到 3.5 bit,質(zhì)量完全無(wú)損,2.5 bit 時(shí)只有輕微下降。A100上,4-bit TurboQuant的注意力計(jì)算速度比PyTorch基線快約8倍。
![]()
論文中做了一個(gè)測(cè)試"大模型在超長(zhǎng)文章里找一句話的能力"。顏色越綠越好。TurboQuant 壓縮了 4 倍,顏色和不壓縮完全一樣。
更硬的是理論部分。
作者用香農(nóng)信息論等基本原理證明,任何向量量化算法能達(dá)到的理論最優(yōu)是一個(gè)確定的下界,TurboQuant 距離這個(gè)下界只差約 2.7 倍的常數(shù)因子。這不是"我們實(shí)驗(yàn)上效果好",而是"理論上我們已經(jīng)接近不可能更好的極限了"。
在它所涉及到的技術(shù)領(lǐng)域,這確實(shí)是一篇有分量的論文,它也入選了 ICLR 2026 主會(huì)場(chǎng)。
但即便在同領(lǐng)域里,這一篇論文之后的關(guān)注度也并不突出。
論文很硬,但和內(nèi)存關(guān)系不大
直到一年后的今天。
谷歌 3 月 25 日發(fā)布博客時(shí),推特上的傳播鏈?zhǔn)沁@樣的:科技博主截圖轉(zhuǎn)發(fā),"谷歌革命性算法讓內(nèi)存需求降低 6 倍",媒體跟進(jìn)報(bào)道"AI 內(nèi)存需求見(jiàn)頂",韓國(guó)財(cái)經(jīng)媒體把 SK Hynix、三星和 TurboQuant 放進(jìn)同一個(gè)標(biāo)題,開(kāi)盤跌停。
![]()
但這個(gè)推導(dǎo)鏈在第一步就斷了。
TurboQuant 壓縮的是推理時(shí) GPU 顯存里的 KV Cache,這是一個(gè)軟件層的算法優(yōu)化。
AI 對(duì)內(nèi)存芯片的需求來(lái)自三塊:模型權(quán)重、訓(xùn)練時(shí)的激活值和梯度、推理時(shí)的 KV Cache。TurboQuant 只碰第三項(xiàng),前兩項(xiàng)完全沒(méi)動(dòng)。
更關(guān)鍵的是,AI 內(nèi)存需求的核心矛盾從來(lái)不是"存不夠",而是"帶寬不夠"。HBM(高速緩存)之所以是 AI 基礎(chǔ)設(shè)施的核心,是因?yàn)?GPU 計(jì)算核心等不及數(shù)據(jù)從內(nèi)存?zhèn)鬏斶^(guò)來(lái)。HBM 的價(jià)值在于它每秒能傳多少數(shù)據(jù),而不只是能存多少。KV Cache 被壓縮到 6 分之一,意味著傳輸量也降了,這實(shí)際上是在把算力和帶寬解放出來(lái),而不是在讓內(nèi)存變得不重要。
還有一個(gè)問(wèn)題。TurboQuant 目前沒(méi)有官方代碼。現(xiàn)有的 PyTorch 和 llama.cpp 實(shí)現(xiàn),都是社區(qū)開(kāi)發(fā)者自己從論文里扒出來(lái)寫的。vLLM、Ollama、TensorRT-LLM 等主流推理框架均未集成。實(shí)驗(yàn)只在 Gemma、Mistral 等小模型上驗(yàn)證過(guò)。70B 以上模型、MoE 架構(gòu)、1M token 上下文
——這些 AI 內(nèi)存需求真正爆炸的場(chǎng)景,論文里一個(gè)數(shù)據(jù)都沒(méi)有。
![]()
這次內(nèi)存股暴跌顯然又是一個(gè)烏龍,市場(chǎng)對(duì)一篇范圍有限的算法論文,經(jīng)過(guò)一番詭異的折騰,最終做出了一個(gè)關(guān)于整個(gè)產(chǎn)業(yè)周期的判斷,并直接真金白銀沖擊了二級(jí)市場(chǎng)。
你能從中看到市場(chǎng)今天對(duì)于 AI 的態(tài)度:極度FOMO,越發(fā)迷茫。
在AI不停用震驚體刺激每個(gè)人后,人們面對(duì)一個(gè)研究成果,第一時(shí)間反應(yīng)已經(jīng)不再是關(guān)心研究本身。比如,在這一次的鬧劇里,市場(chǎng)真正在定價(jià)的,不是 TurboQuant 本身,而是一個(gè)敘事:AI 內(nèi)存需求可能已經(jīng)見(jiàn)頂。
這個(gè)敘事有它的背景。美光在 3 月 18 日公布了 Q2 財(cái)報(bào),營(yíng)收 239 億美元,遠(yuǎn)超預(yù)期,但股價(jià)在隨后一周連跌四天。
市場(chǎng)擔(dān)心的不是現(xiàn)在,是未來(lái):美光 Q1 資本支出同比增長(zhǎng) 68%,達(dá)到 53.9 億美元,這是一個(gè)押注內(nèi)存需求持續(xù)增長(zhǎng)的巨大賭注。TurboQuant 的出現(xiàn),給了市場(chǎng)一個(gè)"需求可能沒(méi)那么多"的理由,兩個(gè)擔(dān)憂疊加,觸發(fā)了這波賣出。
但這個(gè)推導(dǎo)鏈,在技術(shù)層面就已經(jīng)斷了。TurboQuant 壓縮的是推理時(shí)的 KV Cache,只是 AI 內(nèi)存需求的三個(gè)來(lái)源之一。
經(jīng)濟(jì)學(xué)里有個(gè)概念叫杰文斯悖論:煤炭蒸汽機(jī)效率提升之后,煤炭消耗總量反而增加了,因?yàn)楦嗳碎_(kāi)始用蒸汽機(jī)。
TurboQuant 如果真的落地,最可能的結(jié)果是:服務(wù)商用節(jié)省下來(lái)的顯存把 context window 從 128K 做到 1M,并發(fā)數(shù)從 512 做到 5000,總內(nèi)存需求持平甚至上升。
這些邏輯可能會(huì)在未來(lái)被市場(chǎng)理解,但此刻整個(gè)社會(huì)和市場(chǎng)對(duì)于AI的討論最大需求就是情緒價(jià)值,一個(gè)長(zhǎng)鏈路的技術(shù)和產(chǎn)業(yè)邏輯顯然提供不了情緒,只有“突破性算法”和“DeepSeek時(shí)刻”可以。
所以,我們可以期待的就是,這種烏龍只會(huì)越來(lái)越多,繼續(xù)頻繁的發(fā)生。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.