![]()
0億美元的投資,對英偉達而言不算多。但當(dāng)對象是諾基亞,這筆錢的象征意義遠超資本本身。那個曾被智能機時代淘汰的名字,如今正在被黃仁勛重新寫進AI的底層邏輯。
在華盛頓的GTC大會上,英偉達宣布與諾基亞聯(lián)合推動“AI原生通信架構(gòu)”。這不僅是一次技術(shù)合作,更是算力網(wǎng)絡(luò)化的起點。英偉達并不想“接管傳輸端”,而是希望讓自家的算力嵌入通信網(wǎng)絡(luò),在邊緣節(jié)點釋放AI能力。黃仁勛的算盤很清楚——GPU是入口,生態(tài)嵌入才是護城河。當(dāng)AI不再只屬于云端,而成為通信系統(tǒng)的一部分,英偉達的角色也從賣芯片,變成了定義算力標準的“中樞接口”。
算力的瓶頸,已經(jīng)不在芯片
過去三年,英偉達憑借CUDA生態(tài)和GPU架構(gòu)掌握了AI算力的“生產(chǎn)端”。但性能天花板正在逼近。大型模型的訓(xùn)練不再受制于芯片算力,而是被網(wǎng)絡(luò)帶寬、延遲和能耗掣肘。算力中心越多,調(diào)度難度越高,能效損耗越大。真正的瓶頸,已經(jīng)從硅片轉(zhuǎn)移到鏈路。
這也是黃仁勛看上諾基亞的原因。諾基亞是全球三大電信設(shè)備商之一,雖整體份額略遜于華為與愛立信,但在歐美市場擁有穩(wěn)固的合規(guī)基礎(chǔ)與深厚運營商關(guān)系,是西方供應(yīng)鏈替代的關(guān)鍵支柱。英偉達需要的,不只是合作伙伴,而是一張“全球通路”——讓算力能被網(wǎng)絡(luò)識別、調(diào)用、調(diào)度。
當(dāng)然,算力并不會像電力那樣自由流動。它受限于帶寬、延遲和節(jié)點分布。這也意味著,算力調(diào)度將不再是技術(shù)問題,而是一場資源博弈——誰掌握節(jié)點,誰就掌握響應(yīng)速度。英偉達希望通過標準和接口,把自家的算力變成網(wǎng)絡(luò)里最容易被調(diào)用的“通用貨幣”。
從AI工廠到AI電網(wǎng):英偉達的下一階段布局
英偉達的版圖,正在從硬件制造轉(zhuǎn)向基礎(chǔ)設(shè)施。去年發(fā)布的Omniverse DSX,是它構(gòu)建“AI工廠”的關(guān)鍵一步。這套數(shù)字孿生系統(tǒng)能在設(shè)計階段模擬供電、冷卻、布局與算力密度,據(jù)稱在相同功耗下可提升GPU吞吐量約30%。
現(xiàn)在,英偉達要把這種“系統(tǒng)化能力”擴展到網(wǎng)絡(luò)層。通過與諾基亞合作,它計劃將AI算力從封閉的數(shù)據(jù)中心推向開放的通信網(wǎng)絡(luò)。未來,算力將在數(shù)據(jù)中心、基站和終端之間按需分配,形成一張動態(tài)的“AI電網(wǎng)”。
這意味著英偉達的商業(yè)邏輯正在重構(gòu):從賣硬件,轉(zhuǎn)向賣系統(tǒng)標準。從輸出GPU,轉(zhuǎn)向提供“Compute-as-a-Service”。黃仁勛希望,當(dāng)算力像電力一樣被計量、調(diào)度和結(jié)算時,英偉達能成為那個“電網(wǎng)運營商”。它不再是能源的生產(chǎn)者,而是算力流動的調(diào)度者——負責(zé)標準、接口與分配規(guī)則。
AI-RAN:讓通信基站學(xué)會“思考”
AI-RAN(Artificial Intelligence Radio Access Network)是英偉達與諾基亞合作的核心。它的目標,是讓通信基站具備邊緣AI推理能力。通過潛在集成NVIDIA Aerial SDK等邊緣AI平臺,諾基亞有望在未來基站中實現(xiàn)本地化推理,將信道優(yōu)化、用戶調(diào)度、功率控制等原由核心網(wǎng)處理的任務(wù)轉(zhuǎn)移至基站側(cè)執(zhí)行。
從技術(shù)角度看,AI-RAN的潛力在于把部分AI推理能力下放到基站。
這樣可以讓信號調(diào)度更即時,帶寬利用率得到提升,對自動駕駛、工業(yè)控制、遠程醫(yī)療等高時延敏感場景尤其關(guān)鍵。
但這種設(shè)計并非“降維打擊”——AI模塊的加入會帶來額外能耗與散熱壓力,系統(tǒng)復(fù)雜度也隨之上升。
諾基亞對于英偉達的價值,不在于讓其品牌復(fù)活,而在于英偉達能把AI接口嫁接進諾基亞現(xiàn)有網(wǎng)絡(luò)架構(gòu):從核心網(wǎng)到接入網(wǎng)的協(xié)同,讓英偉達的算力不再停留在數(shù)據(jù)中心,而能在真實通信體系中被調(diào)用。
但AI-RAN的落地仍有現(xiàn)實阻力。據(jù)行業(yè)估算,因集成AI模塊,當(dāng)前AI-RAN單站部署成本顯著高于傳統(tǒng)RAN,對運營商CAPEX構(gòu)成壓力。與此同時,AI模型下沉也帶來能耗、散熱和頻譜干擾等工程挑戰(zhàn),需要新硬件與標準支撐。
更重要的是,這場競爭早已不是英偉達與諾基亞的獨角戲。
![]()
華為早在2021年推出“AI Fabric”和“Intelligent RAN”方案,并在中東、東南亞實現(xiàn)商用。高通正推動AI-RAN芯片集成到小基站SoC中。AWS Wavelength與Azure Edge Zones也在與運營商合作部署邊緣AI節(jié)點。而這場競賽的核心,不在于誰先出貨,而是誰能構(gòu)建最開放、最低門檻的開發(fā)者生態(tài)。而英偉達在CUDA生態(tài)上的積累,正是它的底氣所在。
從Wintel到“Net+Compute”:新秩序的雛形
如果說Wintel聯(lián)盟定義了PC時代的軟硬標準,那么“Net+Compute”正在成為AI時代的新底層范式。我們不妨稱之為“Net+Compute”模式——即網(wǎng)絡(luò)與計算深度融合的新結(jié)構(gòu)。英偉達輸出算力標準,諾基亞承載通信骨架,運營商掌握網(wǎng)絡(luò)主權(quán)。三方共同參與下一代通信基礎(chǔ)設(shè)施的設(shè)計。
而這與上世紀的Wintel不同,今天的生態(tài)更開放、競爭更激烈。AI-RAN標準仍在爭奪中,任何“壟斷式聯(lián)盟”都難以重現(xiàn)。但標準之爭的本質(zhì)未變——誰定義接口,誰就掌握話語權(quán)。英偉達試圖以CUDA綁定通信生態(tài),諾基亞希望借此延伸價值鏈,而運營商則在構(gòu)建自有邊緣AI平臺,守住網(wǎng)絡(luò)主權(quán)。AT&T、Verizon、Telefónica等已在試點分布式AI調(diào)度系統(tǒng),努力避免成為單純的“管道”。
未來的AI通信格局,注定是多極并存。英偉達提供算力語言,諾基亞提供物理骨架,運營商提供主權(quán)與合規(guī)保障。真正的競爭,不在硬件算力,而在誰能把這套復(fù)雜系統(tǒng)變成開放、可持續(xù)的生態(tài)網(wǎng)絡(luò)。
最后
當(dāng)基站開始思考,AI才真正學(xué)會了呼吸。它不再依賴遙遠的云端,而是在信號塔之間自我調(diào)度、實時響應(yīng)。這種變化不會以革命的方式發(fā)生,但它的節(jié)奏,我們已經(jīng)聽見。
當(dāng)然,AI-RAN的未來仍充滿不確定。我們還不知道它最終會走向集中式智能,還是完全去中心化。但有一點可以肯定:未來的網(wǎng)絡(luò),不會再是“dumb pipe”(只負責(zé)傳輸數(shù)據(jù)、不參與內(nèi)容或服務(wù)增值的“啞管道”)。
歷史不會重演,但它的節(jié)奏在變。AI的下一站,不在數(shù)據(jù)中心,而在信號塔的陰影里。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.