我是芯片超人花姐,入行20年,有50W+芯片行業粉絲。有很多不方便公開發公眾號的,關于芯片買賣、關于資源鏈接等,我會分享在朋友圈。
掃碼加我本人微信
作者簡介:
Craig Melrose 是 HTEC 的半導體與 AI 行業專家,專注于連接硬件創新與企業級 AI 部署。Ian Baird 是 HTEC 的高級半導體專家,重點關注工作負載遷移、AI 編譯器以及異構計算環境。本文觀點來自 2026 年 3 月進行的專家訪談,以及 HTEC 委托 Censuswide 對全球 250 位半導體行業 C 級高管開展的調研。
硬件熱潮正在降溫。接下來要面對的,是軟件、功耗和推理能力方面的挑戰,而行業里大多數公司其實還沒有準備好。
如今,AI 芯片只占全球芯片產量的 0.2%,卻貢獻了大約 50% 的行業總收入。這個比例本身,就足以說明當前半導體行業的趨勢。AI 正在重塑芯片設計周期、制造良率優化以及部署架構。但根據HTEC對250位半導體高管的全球調查,只有 44% 的企業已經在多個職能環節中全面嵌入 AI,剩下 56% 的企業仍停留在試點、有限部署或早期探索階段。
也就是說,真正覆蓋全公司的 AI 一體化應用,仍未普遍建立起來。結合這項調查結果,以及 HTEC 半導體業務高級負責人 Craig Melrose 和 Ian Baird 的專家觀點,以下幾大趨勢將定義 2026 年的半導體行業格局。
01
AI 硬件金字塔將會坍塌
接下來取而代之的是什么
當前 AI 半導體行業的結構,就像一個倒立的金字塔。寬的一端,是數百家芯片公司、數十億美元的資本投入,以及持續不斷的硬件創新;窄的一端,則是數量其實相當有限、真正進入規模化生產階段的 AI 應用,而這些應用正運行在前述所有芯片之上。
0.2% / 50% 這個比例,已經清楚表明了行業今年的關注重點將轉向哪里。正如 Craig 所說:
“當前很多關注點仍然放在硬件上,而不是放在解決現實世界的問題上。”
未來取代這座金字塔的,將是一種更平衡的結構:硬件會圍繞少數幾個主導性軟件生態進行整合,并與制造、物理 AI、醫療等領域中已經驗證過的終端應用層相連接。2026 年真正能夠跨越這道鴻溝的企業,將是那些帶著能跑真實企業工作負載的軟件棧進入市場的公司,而不只是能在實驗室里跑通方案的公司。英偉達就是一個典型例子。
02
下一家英偉達
不會由芯片本身決定
英偉達贏得 AI 芯片競賽,并不是因為它擁有最好的芯片,而是因為它擁有 CUDA——它足夠好、出現得足夠早,而且黏性足夠強,最終成為全球 AI 開發的默認底層平臺。Ian Baird 說得很直接:如今每一家做定制加速器的公司,真正面臨的主要障礙并不是硬件性能,而是軟件兼容性。
英偉達的優勢,來自其為并行處理而生的 GPU 架構——而這種架構又與 AI 的需求高度契合。此后每一個競爭對手,都不得不逆著一個不斷自我強化的軟件生態往上爬。Craig Melrose 則借用了 Geoffrey Moore 的技術采納曲線來解釋:
“硬件是創新者。真正決定誰能成為快速跟隨者、誰能進入主流市場的,是軟件。”
對于那些正在開發或采用新型加速器的半導體公司來說,真正具有決定性的投入,應該放在編譯器工具鏈、內核庫,以及那些能夠完成工作負載遷移、補齊軟件短板的工程團隊上。
最終能活下來的玩家,往往會具備幾個共同特征:
在軟件上深度投入
聚焦特定的高價值工作負載
擁有經過驗證的部署模式
如果一款加速器在生產環境中無人使用的特定工作負載上性能提升30%,那它就無法成為一項可行的業務。而如果一款加速器在邊緣計算的視頻推理任務上效率提升20%,且擁有完整的軟件棧和經過驗證的部署路徑,那它就是一項可行的業務。
03
到2027年,大多數 AI 推理將運行在邊緣側,但軟件還沒準備好
“AI 推理默認運行在云端”這一假設,正面臨兩股力量的沖擊:一是物理 AI 應用的增長,二是數據中心算力能耗成本的不斷上升。Craig 的判斷很明確:
“物理 AI 最終大多數都會跑在邊緣側。”
機器人、自動駕駛汽車、工廠車間系統,都需要在動作發生的現場完成推理。一個人形機器人,不可能在抓取物體之前,還等著云端來回傳一趟結果。
“邊緣 AI 真正難的,不是把足夠強的芯片送到邊緣端,而是讓軟件能在所有這些硬件上正確運行。”
但瓶頸并不在硬件。當前 NPU 生態高度碎片化:AMD、Intel、高通、蘋果以及其他數十家公司都推出了各自的神經網絡處理器,但它們的架構和工具鏈彼此并不兼容。Ian 直指問題核心:如何開發能夠在這樣一個異構生態中高效運行的軟件,才是真正的難題,而現有框架對此只能部分解決。邊緣推理所需的硬件正在到位,但與之匹配的軟件生態還遠沒有準備好。
04
2026年,Chiplet 架構將從小眾走向主流
把單體 GPU 視為 AI 默認計算平臺的時代,正在結束。AI 工作負載的多樣化,使專用化在經濟上變得越來越劃算。Chiplet 架構允許企業將來自不同來源、不同工藝節點的計算、存儲和 I/O 模塊進行靈活組合,從而實現過去單片大芯片設計難以做到的定制化。
Craig 提到,像 Modular 這樣的公司,正在用非常規方式切入硬件領域。它們正在開發 Chiplet 和模塊化硬件,甚至在重新定義“什么叫一顆芯片”。Ian 還提到了 D-Matrix,作為另一個例子:其將超低延遲存儲與計算進行集成,專門針對視頻生成、提示詞處理等推理負載進行優化。Google 的 TPU、微軟的 Maia、亞馬遜的 Trainium,本質上都押注于同一件事。超大規模云廠商幾年前就已經看明白了這一點。到了 2026 年,市場的其他玩家才會開始真正跟上。
05
到2027年,推理效率將比原始 FLOPS 更重要
當功耗成為約束,效率就會成為護城河。推理優化的前沿,正越來越多地轉移到軟件層面。
現在,采購討論的重點,已經開始從峰值算力性能,轉向每瓦 FLOPS(FLOPS-per-watt)、每次查詢時延(latency-per-query)、每次推理成本(cost-per-inference)。在 2026 年和 2027 年,真正有意義的性能提升,將更多來自軟件層面的推理優化——例如模型蒸餾、量化、編譯器調優,以及根據實際工作負載需求來合理裁剪模型規模。
在幾乎所有真實生產場景里,一套優化良好的小模型,跑在高效芯片上,往往都能勝過一套配置過度、卻運行在高功耗芯片上的大模型。那些把推理優化視為核心工程能力,而不是事后補救動作的公司,將擁有一種后來者很難補齊的結構性成本優勢。
06
數據中心將在2028年前面臨供電不足
AI 基礎設施建設中有一個關鍵風險,當前仍被低估:能源供給的擴張速度,跟不上 AI 算力需求的增長速度。燃氣輪機——目前新增供電能力最快的路徑——其產能預訂已經排到 2028 年。電力供應,正在成為數據中心擴張的硬約束。
一些地方性早期案例已經顯現,比如美國內華達州一家公用事業公司計劃優先保障數據中心用電,而不是現有的電信基礎設施需求。這類情況說明,這種約束正在開始從紙面問題走向現實。Craig 直接拋出了后續問題:
“如果那些依賴數據中心的系統,所依賴的數據中心本身出現能源缺口,會發生什么?如果一個關鍵生產系統實時依賴云端推理,而該數據中心因電力不足而降載,責任該由誰承擔?”
這不是一個理論問題,而是一個運營層面的現實問題。那些現在就開始通過邊緣部署和工作負載優先級管理來提升韌性的組織,在后續約束進一步加劇時會更具優勢。
07
2026年,物理 AI 的增長將快于數據 AI
下一波 AI 芯片需求,將來自嵌入在機器人、汽車、工廠和消費設備等物理系統中的 AI。Craig 認為,這一趨勢其實已經開始了:那些需要本地實時推理的應用場景,增長速度已超過上個周期中占據主導地位的數據中心型應用場景。
證據其實已經體現在周邊市場里。智能手表、便攜式心電設備、智能戒指等消費設備,以及工業自動化、自動駕駛汽車,都需要邊緣推理、低功耗、面向垂直場景的軟件棧,以及讓 AI 能夠在完全不同于受控數據中心環境的現實世界中穩定運行的能力。
而恰恰是這些應用,當前的軟件工具鏈最不具備服務能力。那些最終能把 AI 真正帶入物理世界的公司,會最先意識到:硬件問題和軟件問題,從來就不是兩件彼此獨立的事。
08
結論
半導體行業的硬件競賽已經全面展開,但最終勝負將由軟件決定。那些能夠在這輪洗牌中存活下來的加速器和平臺,必須滿足幾個條件:連接到經過驗證的應用場景,背后有穩健的軟件生態支撐,并且為一個以邊緣優先、功耗受限為現實前提的世界而設計。
我是芯片超人花姐,入行20年,經手10億+RMB芯片采購。
原創寫了9年文章,有50W+芯片行業粉絲。
有很多不方便公開發公眾號的
關于芯片買賣、關于資源鏈接等
我會分享在朋友圈
掃碼加我本人微信
來源:內容由芯世相(ID:xinpianlaosiji)編譯自「HTEC」
![]()
點擊查看往期內容
將芯世相設為“星標”,第一時間收獲最新推送
求喜歡
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.