2026·04·10
內存條恢復原價,指日可待了。
今年是數碼圈的“至暗時刻”,性價比三個字成了昔日的幻想。
![]()
因為內存條的暴漲,主機市場苦不堪言,就連手機、電腦、平板這些終端,也因此大幅上調了售價。唯一還在頭鐵硬抗的,可能也就蘋果了——但那是因為它本來溢價就高。
明明是我們這些“臭打游戲的”,把 NVIDIA 的 GPU 從小蝦米養成了巨頭。如今 AI 成了風口,不僅顯卡成了緊俏貨,連帶其它核心硬件的價格,也推到了普通人難以承受的地步。
以某 32GB DDR4 內存條為例,2024年底時,定價一般是在 400 元左右波動。而在今年2月份,同款內存條甚至漲到了 1831 元。實際漲幅接近 4 倍,這實在是太瘋狂了,再加點都能買一臺筆記本了。
![]()
內存條之所以連連暴漲,根本原因在于 AI 大模型的爆發。各大模型廠商都在擴張數據中心,對 HBM 高速內存、服務器內存的需求飆升,直接帶動了整個內存產業鏈的漲價。產能都用在了 AI 上,普通人自然就被遺忘了。
好消息是,可能很快,內存條就會迎來大幅回調。
近段時間,谷歌發了一個名為“TurboQuant”的壓縮算法,它的核心作用是在不改變模型,不改變精度,無需訓練的前提下,優化 AI 最吃內存的一部分:KV Cache。
你可以把 KV Cache 理解為臨時記憶,在跟大模型對話的過程中,模型在每次生成前,都會把之前的信息暫時存到 KV Cache 中,后續生成時直接調用,對話越長就越吃內存。
![]()
而 TurboQuant 壓縮算法的作用,就是把將數據壓縮到最低 3bit,并且用數學糾錯來保持精準,在長文本推理場景下,內存占用可降低至少 6 倍。經過 Gemma 等開源模型的測試,該壓縮技術完美可行,甚至速度還更快。
這就意味著,同樣的內存條件下,AI 大模型可以跑更長的上下文,服務更多的用戶,直接降低了對內存的需求量。而且這個壓縮算法是無需重新訓練的,開箱即用。
因此假以時日,等到市面上的 AI 大模型都升級了谷歌的內存壓縮算法,內存條大概率會直接崩盤,回歸理性——至少不會漲四倍這么夸張了。
等等黨,還是贏了。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.