![]()
“花幾十億元流片,最終或許只能兌現不到六成的理論價值。”這并非危言聳聽,而是當下AI芯片在真實數據中心場景中的普遍現實。
當生成式AI掀起全球算力競賽,半導體行業的目光多聚焦于:AI芯片公司又推出了性能多么強悍的新品?臺積電的先進制程是否更進一步?然而一組數據,卻進一步揭示了這場行業狂歡背后的隱形枷鎖:
- 2024年中國數據中心總耗電量達1660億度,相當于2個三峽水電站的年發電量;約占全國總耗電量的1.68%,預計2030年占比超過5%,2035年占比超過13%。
算力擴張與電力約束的失衡,正在重塑數據中心產業的發展邏輯。
01
電力瓶頸,比芯片更緊迫
近期,半導體產業縱橫深入AI芯片及數據中心產業一線走訪調研,與多位行業資深從業者深度交流后發現,當前AI數據中心電力消耗居高不下的核心瓶頸,主要有三點。
第一點,正如文章開頭所言,AI芯片的技術發展和數據中心的實際使用場景脫節,是當前行業電力消耗居高不下的核心問題之一。當前諸多AI芯片研發走進“拼峰值算力”的誤區,把算力多少當成核心競爭力,卻忽略了數據中心里最關鍵的“算力夠用且省電”的平衡需求。這種失衡主要體現在兩方面:
其一,芯片設計和實際任務對不上。主流AI芯片的核心架構,更適合高密度的并行計算,但大模型訓練時經常出現“稀疏計算”的情況,兩者天然不匹配——很多芯片算力閑著不用,電卻照耗不誤,形成了“無效耗電”的死循環。其二,應對復雜任務的靈活性不足。隨著多模態大模型(既能處理文字、又能處理圖片視頻)的普及,數據中心常要同時處理視頻編輯、寫文案、圖像識別等多種任務,但現有芯片切換這些任務時效率很低,不僅慢,還會額外消耗更多電力。
第二點,如果說“芯片和場景對不上”是能耗高的“先天設計問題”,那算力需求暴增帶來的電力消耗疊加,就是把數據中心變成“電力黑洞”的主要推手。眾所周知,摩爾定律揭示的是晶體管數量每 18-24 個月翻倍的技術迭代規律,而當前算力需求的增長周期已縮短至每 3-4 個月翻一倍。2024 年我國智能算力增速高達 74.1%,這一趨勢在具體應用場景中更為直觀:2025 年發布的 DeepSeek-R1 大模型日活躍用戶超 2200 萬,僅維持其正常運行就需要約 50 個大型數據中心提供支撐。
與算力需求同步飆升的,是數據中心對電力的極致依賴。如今,“萬卡集群” 已不再新鮮,“十萬卡集群” 成為科技巨頭的競爭新標的 ——OpenAI/Microsoft、xAI、Meta 等企業均在競相構建規模超 10 萬張 GPU 的算力集群。僅以單顆芯片的能耗測算,英偉達 H100 GPU 峰值功耗達 700 瓦,按每小時耗電 0.7 度、全年 61% 的使用時長計算,單顆 H100 年耗電量就達 3740 度;若規模擴大至 10 萬顆,僅 GPU 單元的年耗電量就將突破 3.74 億度。
第三點,除了GPU,數據中心中還有大量的設備,比如服務器(還包含CPU等部件)、網絡設備、存儲設備、冷卻系統和照明等,這些設備無一不需要持續供電。其中數據中心的冷卻系統是能耗的主要組成部分之一,總耗電量占到38%以上(有的甚至高達50%)。
數據中心的“電力黑洞” 困境,并非單純的電力供給不足。從能源利用效率來看,2025年,我國數據中心平均電能利用效率(PUE)約為1.45,與世界先進水平(約1.1-1.2)仍有差距。其中,制冷系統能耗占27%,正成為主要的節能突破口。
根據中華人民共和國國家發展和改革委員會發布的數據中心綠色低碳發展專項行動計劃顯示,到2025年底,算力電力雙向協同機制初步形成,國家樞紐節點新建數據中心綠電占比>80%。在這一硬性要求下,以下四項技術成為發展重點:綠電直連技術、高效冷卻技術、IT負載動態調整技術、算-電-熱協同技術。
其中在記者與業內人士的交流中,“液冷技術”也是被提及的重點。
02
液冷技術,關鍵解法
數據中心的冷卻技術正在經歷一場徹底的變革。尤其是在單機柜功率密度超過25kW的高密度場景下,傳統的遠端風冷已經難以為繼,行業正在加速轉向更高效的冷卻方案——主要是近端風冷和液冷兩大方向。其中,高效又節能的液冷技術,已經成為市場的主流選擇。
液冷技術分化出三種主流方案:
第一種是冷板式液冷,能精準對準CPU、GPU這些發熱核心散熱,不僅能效高,改造成本也相對可控,是目前最普及的液冷方案。
第二種是浸沒式液冷,直接把服務器完全泡在絕緣冷卻液里,散熱效率拉滿,堪稱超高熱密度場景的“終極解決方案”。
第三種是噴淋式液冷,通過直接向發熱元件噴淋冷卻液,用最短的路徑實現高效散熱,適配特定場景需求。
![]()
不過業內人士向半導體產業縱橫表示液冷技術是目前的最優解法,但該技術在數據中心普及率并不算高,大約只有10%,盡管行業內存在噴淋式液冷的方案,但是商用情況相對不明朗。
還有業內人士向半導體產業縱橫提到,除單純的液冷技術外,冷板+液冷循環的組合方案也是當前技術布局重點。比如英偉達和AMD在CES上最新發布的英偉達 Vera Rubin NVL72與AMD MI450均采用“冷板貼合+封閉液冷循環”的技術架構。
具體而言,通過定制化冷板直接貼合GPU芯片及其他高發熱組件(如供電模塊、顯存),冷板內部設計微通道結構,冷卻液在微通道內高速流動,快速帶走熱量;吸收熱量后的冷卻液通過封閉管道進入換熱模塊,與外部冷卻系統進行熱交換后降溫,再循環回流至冷板,形成完整的散熱閉環。這種方案既避免了噴淋式液冷對電子元件的絕緣要求,又解決了風冷的散熱效率不足問題,實現了散熱效果與設備安全性的平衡。
不過無論是英偉達的NVL72還是AMD的MI450集群,其液冷方案均圍繞自身核心算力芯片展開定制化開發。英偉達為Ada Lovelace架構GPU量身設計冷板貼合面,確保冷板與芯片核心發熱區域的接觸面積達95%以上,減少散熱死角;AMD則針對MI450芯片的封裝結構,優化冷板的壓力分布,避免因冷板壓力不均導致芯片損壞,同時適配芯片的高功率密度特性,提升冷卻液的流速與換熱效率。這種“芯片-冷板”的深度適配,成為保障液冷效果的關鍵前提。
英特爾的液冷技術主要采用冷板式液冷方案,通過在CPU、GPU等高功耗芯片上安裝金屬冷板,內部布有微通道,讓冷卻液流經并吸收運行中產生的熱量,實現高效導熱。冷板與芯片緊密接觸,利用導熱界面材料提升熱傳導效率,無需浸沒整個服務器,兼容現有數據中心架構。該技術可顯著降低散熱能耗,支持更高密度計算部署。
在國內市場,曙光數創在液冷基礎設施市場的部署規模處于領先地位。2021年至2023年上半年,曙光數創在中國液冷基礎設施市場份額位居第一,占比達56%。其冷板液冷方案和浸沒相變液冷方案已廣泛應用于字節跳動等頭部互聯網廠商。
英維克作為全鏈條液冷的開創者,提供從冷板、快接頭到CDU、機柜的全棧產品,截至2025年3月,其液冷鏈條累計交付已達1.2GW。
具體細分賽道方面,飛榮達在散熱產品領域布局廣泛,其自主研發的3DVC散熱器功耗可達1400W,處于行業領先水平。飛榮達已成為英偉達、中興、浪潮等企業的核心供應商,液冷模組等產品已實現批量交付。中石科技則在熱模組核心零部件和TIM材料上實現了批量供應,VC模組在高速光模塊中的應用正加速落地,并積極推進液冷模組的客戶導入。
思泉新材也已具備液冷散熱模組的規模生產能力,東莞工廠和越南工廠均已做好量產準備。公司正開展750W-3000W液冷技術的研發,包括雙相冷板、Manifold、CDU等核心組件。川環科技則成功切入主流液冷供應商體系,其液冷服務器管路產品已通過美國UL認證,并進入奇鋐、英維克、飛榮達等廠商的供應名單。
03
中國制造業,優勢顯現
這場關于數據中心的討論,早已超越傳統IDC建設范疇,演變為一場涉及半導體、能源、通信、安全的系統性變革。而在這場變革中,中國的制造業底座優勢正在顯現:
- 世界銀行數據顯示,中國制造業增加值2010年首次超過美國,居世界首位,成為全球工業經濟增長的重要驅動力。
- 截止2024年,中國制造業規模已經連續15年居世界首位。
- 2024年數據顯示,中國制造業規模大于美國、日本、德國和印度制造業規模總和,相當于兩個美國;而美國大于日本、德國和印度之和。
未來的數據中心,從來不是越大越好,而是越“聰明”越好。
這份“聰明”,始于硅片之上的精準創新——打破“唯峰值算力論”,讓芯片架構適配真實場景,讓每一度電都轉化為有效算力;落于冷卻技術的高效突破,依托中國制造業全鏈條優勢,推動液冷從細分賽道走向規模化普及,實現散熱效率與成本的平衡。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.