![]()
當GPU算力以每季度翻番的速度狂飆,當HBM成為AI服務器的“硬通貨”,一塊被嚴重低估的核心部件——面向AI工作負載優化的SSD,正站在產業矛盾的中心點。而當前市場的主流存儲方案HDD與HBM,各自存在難以突破的發展掣肘,正是這一局面的關鍵成因。
01
HBM、HDD,均不是最優解
先看HBM,隨著GPU算力的爆發式增長,本質上是“數據處理能力”的指數級提升。從單卡到集群,從百億參數到萬億參數,GPU對數據的“吞吐需求”只會越來越苛刻:不僅要快,還要穩定、無延遲,避免出現“算力空轉”。而這種需求,恰好戳中了現有存儲方案的痛點。其次,HBM成為“硬通貨”,是市場對“高帶寬存儲”的被動選擇。HBM的核心優勢是“近顯存級的帶寬”,能最大程度匹配GPU的高速計算節奏,減少數據搬運的延遲——這也是它能成為AI服務器標配的關鍵。但HBM的成本邏輯與“規模化部署”相悖,過度依賴HBM會直接推高AI服務器的整體成本,讓多數企業望而卻步。
再看另一主流存儲方案HDD。作為長期占據存儲市場的“容量擔當”,HDD的優勢是低成本、大容量,能滿足數據歸檔、冷存儲等場景的需求。但在AI算力狂飆的當下,HDD的性能短板已成為“致命缺陷”:其機械結構決定了讀寫速度和延遲表現,完全跟不上GPU的算力釋放節奏。AI訓練中,數據需要從存儲介質快速加載到GPU顯存,而HDD的慢響應會導致“數據等待算力”。
由此可見,產業矛盾的核心已經非常清晰:GPU的“無限算力需求”與現有存儲方案的“有限適配能力”形成了尖銳對立。HBM能解決“快”的問題,但解決不了“多”和“省”;HDD能解決“多”和“省”的問題,但解決不了“快”;而AI產業的持續發展,恰恰需要一種能同時平衡“高速響應、海量容量、合理成本”的存儲方案。
SSD的價值,正在這種矛盾中被凸顯出來。
02
AI場景SSD憑什么“火”
那么,面向AI的SSD需要解決哪些問題?
業內人士向半導體產業縱橫表示,面向AI的SSD是為大模型訓練/推理量身定制的“高性能+高并發+低延遲+高耐久+大容量”的專用存儲,而大容量SSD只是“容量大”的通用存儲——容量只是SSD的必要條件,絕非充分條件。以下是該類SSD的一些核心特點:
打破CPU中轉瓶頸,讓高端GPU算力不閑置。GPU的核心價值在于算力輸出,但這份輸出能否落地,始終受限于數據傳輸與存儲的協同能力。傳統架構中GPU取數需經“SSD→CPU→內存→GPU”多環節跳轉,CPU帶寬瓶頸成為產業痛點。而面向AI場景的SSD的核心突破,正是在半導體架構層面實現“直連協同”,通過接口技術,讓GPU跳過CPU,直接與SSD建立數據通道。這一改變絕非簡單提速——數據搬運時間大幅縮短,GPU不再因等待數據“空轉”,徹底破解高端GPU算力閑置的資源浪費難題,讓核心芯片的性能優勢真正落地。
![]()
打破GPU顯存高端壁壘。如今萬億參數模型的訓練與推理,需要TB級顯存支撐,若單純依靠HBM顯存擴容,不僅會讓GPU成本翻倍,還會受限于半導體制造工藝,讓多數企業難以承擔高端GPU集群的投入。面向AI應用的SSD被設計為介于HBM顯存與傳統存儲之間的“類內存層”,本質是半導體存儲器件與計算器件的協同創新,既能作為GPU的擴展顯存,又能承擔數據緩存功能。該技術并非替代HBM/DRAM,而是將存儲層從內存擴展到SSD,形成“DRAM+HBM+SSD”的分級存儲體系,優化整體效率。
內置DSP/ASIC,支持近存計算。GPU既要承擔核心矩陣運算這類高端任務,還要處理數據預處理、優化器狀態更新等簡單計算,導致寶貴的算力被浪費。而為了AI場景優化SSD內置DSP/ASIC計算單元,支持近存計算技術,可將這些簡單計算任務從GPU卸載到SSD本地執行,實現半導體器件的“分工優化”。這種協同模式,讓GPU徹底擺脫冗余計算的束縛,專注于核心算力輸出,不僅減少了數據搬運帶來的延遲與損耗,更提升了整個半導體系統的算力密度。
業內人士向半導體產業縱橫表示:為了AI場景優化的SSD第一次讓存儲本質性融入算力體系,實現數據直接參與AI訓練與推理,完美匹配GPU高頻并發的特點,最終提升性能、降低整體TCO(總擁有成本)。
03
被搶注的SSD,2026年迎來放量
據悉,由于AI服務器推動存儲需求爆發,HDD持續大缺貨,交付期限已延長至2年以上,云廠商“緊急加單”,采購大容量企業級SSD,部分原廠2026年QLC NAND Flash產能也被提前搶購一空。供應鏈人士透露,各家云廠商只能排隊等待,由于HDD供應集中,并采取“依訂單生產”模式,缺貨持續加劇,有云廠商與供應商簽定2026年長約,提前鎖定HDD與企業級SSD供貨來源。
因此,面向AI時代的SSD已成為存儲巨頭、GPU龍頭與云廠商的必爭賽道,全球頭部存儲廠商紛紛入局,并分化出兩條差異化的技術路線。
![]()
第一條路線,是與GPU龍頭英偉達深度綁定,針對性開發適配AI/數據中心場景的SSD產品,核心目標是解決GPU受限于HBM容量的行業痛點,旨在應對計算負載從“計算密集型”向“數據密集型”的轉變,通過將更多數據置于計算資源附近,擴大GPU可用顯存空間,進而支持更大數據集的訪問、顯著提升GPU利用率。
在這一技術方向下,鎧俠與SK海力士已相繼公布合作進展。2026年3月,鎧俠宣布成功研發全新品類的超高IOPSSSD,這款產品正是基于英偉達“Storage-Next”計劃的需求打造,預計將于2026年末向特定用戶提供評估樣品。無獨有偶,SK海力士早在2025年12月便宣布與英偉達合作研發AI核心SSD,該項目在英偉達內部沿用“StorageNext”代號,在SK海力士內部則被命名為“AI-NP”(AINANDPerformance),隸屬于“AINFamily”產品線。其核心邏輯是通過重構NAND與控制器架構,打破AI運算與存儲間的數據傳輸瓶頸,滿足大規模AI推演對數據吞吐的極致需求。據規劃,SK海力士這款產品將采用PCIeGen6接口,計劃于2026年底推出初期樣品,其IOPS性能可達2500萬次/秒,實現了8-10倍的跨越式提升。
第二條路線,則是聚焦容量提升、性能突破,打造高性能、大容量的SSD產品。以三星、華為、美光為代表的廠商均在此賽道加速布局。2025年10月,三星明確產品路線圖:256TBPCIe6.0SSD將于2026年正式推出,512TB版本則計劃在2027年落地;同時,兼容CXL3.1與PCIe6.0標準的CMM-D存儲產品也即將面市,性能實現翻倍升級。
華為則在2025年8月搶先發布面向AI時代的高端SSD矩陣,包含高性能系列HUAWEIOceanDiskEX560、SP560,以及大容量系列HUAWEIOceanDiskLC560,其中單盤最高容量達245TB。該系列產品的核心價值在于打破傳統AI存儲器的性能與容量瓶頸,全面提升AI訓練效率與推理體驗。
同期,美光也于2025年8月在愛達荷州博伊西發布三款基于G9NAND技術的數據中心級SSD,涵蓋旗艦級9650、高密度6600ION及主流7600三大系列。憑借全球首發的PCIe6.0技術、業界領先的容量密度與超低延遲表現,為AI算力基礎設施提供核心支撐。從落地進度來看,美光9650與7600系列已推出E3.S/E1.S形態樣品,6600ION系列122TB版本已于2025年第四季度量產,245TB高容量版本則計劃在2026年上半年正式上市。
從上述頭部廠商的技術布局與產品路線圖不難看出,2026年正成為AI用SSD技術落地與商業化應用的關鍵元年。
業內人士向半導體產業縱橫表示,當前AI用SSD已在三大核心AI場景中展現出強勁的實戰價值:
第一個場景,是AI推理系統。無論是ChatGPT這類對話機器人,還是工作中的AI功能,都需要高頻訪問KV緩存來應對百萬級并發請求。SSD的低延遲的高響應速度,讓推理更高效,而超大容量則賦予AI“長久記憶”,避免重復計算,大幅降低成本;
第二個場景,是向量數據庫實時檢索。向量數據庫是AI語義檢索、推薦系統的核心,對吞吐量和響應時間要求極高。該SSD的高并發、低延遲特性,讓實時檢索效率翻倍。
第三個場景,是AI數據一體機。在海量數據訓練場景中,AI數據一體機需要兼顧性能與成本。SSD通過性能優化與TCO平衡,讓數據分層存儲更合理,既保證訓練速度,又降低硬件投入成本,成為企業部署AI訓練平臺的優選方案。
04
面向AI應用的SSD,進入產業狂歡
過去長期把資源優先投向DRAM的三星和SK海力士,如今正積極調整戰略布局,應對AI服務器需求激增帶來的存儲芯片市場新變化。
三星電子在2024年9月就已啟動280層V9 NAND量產,但當時只在平澤園區部署了初期量產線,月產能僅約15000片晶圓。如今,隨著AI產業推動存儲需求快速上升,三星正在加速擴大V9產能,并將重點放在中國西安的X2產線。據悉,三星電子位于中國西安的NAND晶圓廠近期成功完成工藝制程升級,實現了236層堆疊的第八代V-NAND (V8 NAND)的量產。
本次制程升級始于2024年,旨在改造原有的V6 (128L) NAND,以提升產品性能與生產效率,增強產能競爭力。在量產V8 NAND后,三星西安晶圓廠的下一步瞄準了286層堆疊的V9 NAND,相關生產線將位于X2工廠,計劃在2026年內完成過渡并實現量產。
SK海力士也展現出強勁的擴產勢頭。該公司計劃在今年第二季度啟動321層第9代NAND的轉換投資,目標是在清州M15實現月產約3萬片晶圓的V9產能。與目前約2萬片晶圓的水平相比,這次擴產力度相當大。
鎧俠表示,計劃通過擴大其四日市工廠和北上工廠的生產線,到2029財年將產能較2024財年提高一倍,以滿足AI數據中心對NAND閃存日益增長的需求。此外,鎧俠與閃迪正計劃聯合在美國興建NAND晶圓廠。
技術迭代的核心不僅在于架構與標準,更在于底層存儲介質的優化,鎧俠CEO柳茂知表示,QLC SSD是AI行業最好的選擇。盡管從SLC到MLC,再到TLC,最終到QLC,SSD的性能一直在下降,但隨著技術的演變,2025年QLC SSD的速度已經比2017年的TLC SSD快很多了。如今QLC SSD的順序讀寫速度可達7000MB/s左右,性能十分強大,能夠滿足AI大模型數據存儲和調用的要求。
QLC(Quad-Level Cell)顆粒之所以能成為SSD的主流選擇,正是源于其對AI場景核心訴求的精準匹配。
第一、讀取優化特性:QLC NAND針對讀取密集型工作負載進行了優化,而AI推理服務器主要負責分析和處理大量數據,訪問模式以讀取為主,寫入頻率相對較低。
第二、高密度優勢:QLC NAND具有更高存儲密度,每單位成本低于TLC NAND,使其成為AI服務器、云計算和大數據分析等應用的理想選擇。
第三、能效提升:Solidigm的研究表明,QLC固態硬盤的能效比TLC固態硬盤高19.5%,比混合TLC固態硬盤和機械硬盤高79.5%,這對大規模部署的AI推理服務器至關重要。
英特爾的研究進一步證實,QLC NAND固態盤會讓PCIe4.0總線的讀取能力達到飽和,而且具有接近TLC的延遲和服務質量(QoS)。正因如此,這種固態盤的響應速度相比機械硬盤高出好幾個數量級。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.