![]()
當AI大模型能寫代碼、做設計,當云計算支撐起千萬企業的日常運轉,當自動駕駛測試里程突破億萬公里,這些看似酷炫的應用背后,都離不開一套默默運轉的“算力基建”。近期持續升溫的CPO、PCB、液冷技術,正是這套基建里最核心的“三劍客”。它們不是曇花一現的概念炒作,而是被算力需求倒逼出來的“硬剛需”——沒有它們,再先進的AI芯片也沒法高效運轉,再龐大的數據中心也會陷入癱瘓。今天就用大白話拆解這三項技術,結合2025年最新行業數據和政策,講講它們到底在產業鏈中扮演什么角色,為啥能成為市場關注的焦點。
先來說說CPO(共封裝光學技術),它堪稱算力時代的“高速數據線王”。咱們可以這么理解:AI大模型訓練時,需要在無數服務器之間傳輸海量數據,就像一個超級物流系統,數據就是要送的包裹。傳統的數據傳輸方式,是芯片先把電信號傳給獨立的光模塊,再轉換成光信號傳輸,中間要“換乘”一次,不僅速度慢,還特別費電,就像用普通快遞送加急件,根本趕不上算力爆發的需求。
而CPO技術直接把光模塊和交換機芯片“打包”封裝在一起,電信號不用“換乘”就能直接變成光信號,傳輸路徑從厘米級縮短到毫米級,相當于把快遞升級成了“同城閃送+高鐵聯運”。2025年全球AI數據中心的算力規模同比增長180%,單臺AI服務器對CPO的需求是普通服務器的5-8倍,這種爆發式需求直接推火了CPO賽道。根據行業預測,2025年全球CPO市場規模已經達到120億元,2026年更是會飆升到350億元,增速超過190%。
政策層面也給出了明確支持,2025年8月工信部發布《人工智能算力基礎設施建設行動計劃》,明確要求提升算力基礎設施的傳輸效率,CPO作為核心硬件直接受益。技術落地速度也遠超預期,華為、中興、中際旭創等企業已經實現CPO產品量產,2025年國內CPO的量產滲透率從年初的5%提升到了15%,英偉達Quantum-X InfiniBand系統更是實現了115.2Tbps的帶寬,充分驗證了CPO的技術可行性。不管是超大規模數據中心的服務器互聯,還是AI算力集群的信號傳遞,CPO都是解決“傳輸慢、功耗高”的關鍵,堪稱算力時代的“剛需標配”。
再看PCB(印制電路板),它是電子設備的“血管神經網”,更是AI算力設備的“硬核骨架”。咱們平時用的手機、電腦里都有PCB,但AI服務器用的PCB,和普通家電里的完全不是一個級別——就像普通公路和高速公路的區別。
AI服務器的算力密度極高,一塊主板上要集成幾十顆芯片、上百個電子元件,這就要求PCB有更強的承載能力、更精細的線路布局。比如用于AI訓練的高端服務器,其PCB需要采用20層以上的高多層設計,線路精度達到微米級別,相當于在指甲蓋大小的面積上鋪設出復雜的“交通網絡”。更關鍵的是,這類高端PCB的國產化率目前僅30%,核心材料還存在40%以上的缺口,市場需求極為迫切。
政策層面的引導更是直接推動了高端PCB的發展。2025年11月,工信部發布《印制電路板行業規范條件》及配套管理辦法兩份征求意見稿,被業內稱為“史上最嚴”行業規范——明確要求企業研發投入不低于營收3%且最低1000萬元,人均年產值不低于60萬元,同時嚴控低水平擴產,鼓勵“專精特新”企業發展。這一政策直接加速了行業洗牌,2024年已有30多家中小廠商退出市場,頭部企業則加速擴產,生益電子投資19億元建設高多層算力電路板項目,滬電股份啟動43億元AI芯片配套高端PCB擴產項目,行業“強者愈強”的格局愈發清晰。沒有高質量的PCB,再厲害的AI芯片也只是一堆無法協同工作的零件,它的“剛需”屬性,正是源于算力設備對精密連接的硬性要求。
最后聊聊液冷技術,它是算力設備的“超級降溫神器”,更是解決AI服務器“發燒”難題的最優解。隨著AI芯片性能越來越強,功耗也跟著水漲船高——單臺AI服務器的功耗從傳統服務器的500W飆升至3000W以上,一個超算中心的服務器集群功耗堪比一座小型火電廠。
傳統的風冷散熱靠風扇吹風帶走熱量,散熱效率不足30%,不僅容易讓芯片因高溫宕機,還會讓數據中心的PUE值(能源使用效率)遠超政策紅線。而液冷技術通過冷卻液直接接觸發熱部件帶走熱量,散熱效率高達95%以上,能將服務器核心溫度控制在35℃以下,其中浸沒式液冷的PUE值可低至1.09,完美契合算力中心的節能要求。2025年國內超算中心的液冷服務器滲透率已從20%升至50%,頭部算力中心更是實現100%液冷覆蓋,國內液冷服務器市場規模突破400億元,同比暴增220%。
從市場趨勢來看,IDC預測到2025年,全球采用液冷技術的數據中心數量將占到整個市場的40%以上,市場規模突破200億美元。政策層面,2025年12月工信部發布的《數據中心綠色低碳發展行動計劃》要求,2026年新建大型數據中心PUE控制在1.2以下,而液冷技術是實現這一目標的關鍵支撐。目前曙光數創、高瀾股份等龍頭企業已占據90%的市場份額,其中6家成為英偉達GB300液冷方案的核心供應商,技術成熟度和商業化程度都在快速提升。可以說,沒有液冷技術,算力設備就會因“過熱罷工”,它是算力持續升級的必要條件。
看到這里,大家應該能明白為啥這三項技術被稱為“AI基建三劍客”——它們在產業鏈中環環相扣、缺一不可,構成了算力設備的“傳輸-連接-散熱”鐵三角。CPO解決“數據傳得慢”的問題,PCB解決“部件連得穩”的問題,液冷解決“設備溫度高”的問題,三者共同撐起了AI大模型訓練、推理的算力底座。
更關鍵的是,它們的熱度不是短期炒作,而是產業需求的真實反映。2025年以來,全球AI服務器需求激增,算力中心建設加速,“東數西算”工程持續推進,這些都直接拉動了CPO、高端PCB、液冷技術的需求增長。政策層面的扶持、技術的持續突破、市場需求的爆發,三重共振讓這三項技術成為了算力時代繞不開的“硬剛需”。
當然,也要客觀看待行業現狀:CPO技術還面臨高端光芯片依賴進口的問題,2025年國產光芯片在高端CPO中的滲透率只有22%;高端PCB的核心材料缺口仍需填補;液冷技術的初期投資成本也比風冷更高。但這些都是產業發展過程中的正常挑戰,隨著國產替代加速和技術成熟,這些痛點正在逐步被攻克。
對于普通讀者來說,了解這三項技術,不僅能看懂當下科技賽道的熱點邏輯,更能看清算力時代的產業趨勢——未來只要AI、云計算、自動駕駛等領域持續發展,算力需求就會不斷增長,而支撐算力的“基建三劍客”,也會在技術迭代和市場需求中持續成長。
理財有風險,入市需謹慎。本文數據僅供參考,不構成投資建議。
在你看來,除了CPO、PCB、液冷,還有哪些技術會成為支撐算力發展的關鍵?你身邊有沒有感受到算力升級帶來的變化?歡迎在評論區分享你的看法。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.