![]()
本文由半導體產業縱橫(ID:ICVIEWS)綜合
到2025年,HBM單位存儲容量的價格將上漲21%。
全球規模最大的半導體存儲器和存儲技術盛會——未來存儲大會(FMS)于2025年8月5日至7日(美國時間)在美國加利福尼亞州圣克拉拉舉行。FMS內容包括主題演講、專題講座、展覽等。近日,FMS官方網站已發布了主題演講視頻和全體會議報告的幻燈片。本文將提供市場研究公司TrendForce分析師Ellie Wang的演講概要。
Ellie Wang的演講題目是“人工智能增長將如何推動2025年后的人腦模型需求:塑造產品演進和動態”。Wang將人腦模型市場分為三個方面進行解釋:“供應趨勢”、“需求趨勢”以及“平均售價(ASP)和收入趨勢”。
SK海力士計劃在2026年前大幅提升HBM產能
首先,來看一下供應趨勢。構成 HBM 的硅芯片具有一種稱為硅通孔 (TSV) 的特性。除 HBM 之外的其他 DRAM 硅芯片,例如 DDR 系統,則沒有 TSV。因此,TrendForce 將帶有 TSV 工藝的晶圓的加工能力(月產量)視為 HBM 的產能。
預計到2025年底,三大DRAM廠商的DRAM晶圓加工能力(月產量)分別為:三星電子65.5萬片,SK海力士54.5萬片,美光科技34萬片。其中,采用TSV工藝(HBM)的晶圓加工能力(月產量)預計分別為:三星15萬片,占DRAM總產量的23%;SK海力士15萬片,占28%;美光5.5萬片,占16%。
![]()
主要DRAM供應商的DRAM晶圓加工能力(月產量,單位:千片)和TSV工藝晶圓加工能力(月產量,單位:千片)。所有數據截至年底。來源:2025年FMS會議論文集,TrendForce
預計到2026年底,三大DRAM廠商的DRAM晶圓加工能力(月產量)分別為:三星67萬片,同比增長1.5萬片;SK海力士 60萬片,同比增長5.5萬片;美光36萬片,同比增長2萬片。其中,SK海力士的產能增長尤為顯著。
預計到2026年底,三星的TSV工藝(HBM)晶圓加工能力(月產量)將與去年持平,為15萬片;SK海力士的產能將同比增長5萬片,達到20萬片;美光的產能將同比增長4.5萬片,達到10萬片。盡管SK海力士和美光都在積極擴張產能,但三星的擴張步伐卻顯得較為謹慎,這一點值得關注。
仔細分析可知,SK海力士DRAM產能增幅的90%以上將用于HBM。美光HBM產能增幅(4.5萬片晶圓)甚至超過了其DRAM整體產能增幅(2萬片晶圓),這造成了一種“不尋常”的局面。這表明該公司正在調整生產線配置,優先生產HBM。
當前,面向高端大規模算力場景的GPU(即標準 AI 處理器),普遍采用HBM 模塊與主芯片共封裝技術路線;其產品形態以 “GPU 芯片 + HBM 內存模塊” 集成方案對外交付。HBM的核心應用群體,聚焦于GPU廠商及 AI 處理器(模塊)廠商兩大陣營。
DRAM行業共識顯示,HBM的核心需求方為NVIDIA與AMD兩大GPU廠商,其中NVIDIA是商用數據中心AI加速芯片的領先供應商,AMD亦為HBM的主要采購方。演講者展示了兩家企業數據中心級AI加速芯片及其配套HBM規格的公開季度路線圖,涵蓋DRAM堆疊層數、單模塊容量、芯片搭載模塊數量及總內存容量等關鍵指標。
2024年上半年,NVIDIA數據中心AI加速芯片的HBM總容量區間將達 80GB—144GB,標配HBM3E 世代模塊,單模塊容量為16GB 或24GB,均基于 8 層DRAM芯片堆疊工藝實現。到 2025 年下半年,HBM3E 世代將推出 36GB 規格的升級模塊,采用8層 ×4.5GB DRAM 裸片的工藝方案;搭載該模塊的 AI 加速芯片總內存容量上限將達 288GB,較 2024 年上半年的 144GB 上限實現翻倍。
2026年,搭載 HBM4 世代模塊的 AI 加速芯片將正式量產出貨。相較于 HBM3E,HBM4 的 DRAM 堆疊層數仍為 8 層,單模塊容量升級至 48GB(8 層 ×6GB 裸片),同時數據傳輸速率較 HBM3E 提升超 50%,成為新一代 AI 芯片的核心性能增量點。
![]()
NVIDIA 和 AMD AI 芯片及 HBM 規格路線圖(2024 年第一季度至 2026 年第四季度)。來源:2025 年 FMS 會議論文集,TrendForce
2024年上半年,AMD AI芯片搭載的HBM內存方案為:128GB(HBM2E,16GB 單模塊 ×8 層堆疊)與192GB(HBM3,24GB 單模塊 ×8 層堆疊);2024年下半年單卡升級為288GB HBM3E(36GB 單模塊 ×8 層堆疊)。2025年延續288GB HBM3E配置,進一步優化帶寬至8TB/s。2026年將升級為432GB HBM4(單模塊容量提升,配合12 層堆疊),內存帶寬達19.6TB/s,滿足大規模AI訓練與分布式推理需求。
到2025年,HBM單位存儲容量的價格將上漲21%
平均售價(ASP)是指HBM模塊每千兆比特的價格。HBM價格談判每年進行一次。2022年的平均售價為1.40美元,2023年略微下降至1.38美元,2024年回升至1.49美元。該年的價格上漲歸因于HBM3E一代產品出貨率的提高。
![]()
平均售價 (ASP) 趨勢 (2022-2025)。來源:2025 年 FMS 會議論文集,TrendForce
預計到2025年,平均售價將大幅上漲至1.80美元。隨著12 層HBM3E芯片開始量產,該芯片的比例將進一步增加,從而推高價格。
*聲明:本文系原作者創作。文章內容系其個人觀點,我方轉載僅為分享與討論,不代表我方贊成或認同,如有異議,請聯系后臺。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.