作者:毛爍
![]()
幾天前,一位在行業(yè)深耕多年的朋友問我:現(xiàn)在滿市場都是AIPC,究竟什么樣的機器,才配得上“生產(chǎn)力”引擎,而不只是把“本地端側(cè)智能”當賣點?
這個問題的關(guān)鍵,并不僅在于某一代芯片性能是否足夠強,更在于算力的組織方式是否發(fā)生了變化。過去二十年,計算資源不斷向云端集中,個人設(shè)備逐漸退化為算力入口。但在大模型時代,這種結(jié)構(gòu)開始顯現(xiàn)出系統(tǒng)性張力——模型規(guī)模、數(shù)據(jù)私有性與推理頻率,正在加速算力重新下沉。
AIPC的出現(xiàn),解決了部分本地推理問題,卻仍受限于顯存規(guī)模、內(nèi)存割裂和模型生命周期不可持續(xù),難以形成完整的計算閉環(huán)。本質(zhì)上,算力依然是被預(yù)設(shè)、被封裝的。
真正的分水嶺,或許不是“PC 能不能跑 AI”,而是——個人是否能夠擁有可持續(xù)演進的AI計算系統(tǒng),能在本地完成推理、微調(diào)與優(yōu)化,并長期沉淀數(shù)據(jù)與模型資產(chǎn)。
從這個意義上看,是否“每個人都應(yīng)該擁有一臺 AI 超算”?
最近,我們正好拿到了一臺不久前發(fā)布的NVIDIA DGX Spark——一臺被壓縮到桌面尺度的AI超算。
![]()
![]()
GB10的CPU部分,搭載了專為數(shù)據(jù)預(yù)處理和AI任務(wù)優(yōu)化的20核心ARM處理器。這顆CPU的核心調(diào)度策略采用“10+10組合”——10個Cortex-X925超大核,負責高負載的通用計算任務(wù);10 個 Cortex-A725高能效核,負責處理后臺進程和I/O 調(diào)度。
與之協(xié)同的,是基于 Blackwell架構(gòu)的GPU核心。其集成了6144個Blackwell Generation CUDA 核心,搭載了第五代Tensor Core和第四代RT Core。
最令人驚艷的在于其張量性能(Tensor Performance):在 FP4精度下,這1.2kg的“小盒子”能爆發(fā)出的峰值算力高達1 PFLOP(此為基于 FP4精度并結(jié)合稀疏性加速的理論值)。這意味著其單機的理論性能,已經(jīng)能夠支撐起200B(兩千億)參數(shù)級別的AI推理任務(wù),或70B(七百億)級別的模型微調(diào)訓練。
為了匹配這樣的計算與互聯(lián)能力,NVIDIA DGX Spark在存儲I/O配置上標配4TB NVMe M.2 SSD,并支持自加密(Self-Encrypting),用于保護模型權(quán)重與數(shù)據(jù)資產(chǎn)的安全;網(wǎng)絡(luò)側(cè)除萬兆以太網(wǎng)外,還支持Wi-Fi 7,覆蓋從本地集群到無線辦公的多種使用場景。
在如此激進的性能釋放下,GB10芯片的TDP被控制在140W,整機滿載功耗約240W。結(jié)合僅其緊湊的體積,NVIDIA DGX Spark給出了清晰的答案——桌面級AI計算不再只是靠堆功耗換算力,而是通過系統(tǒng)架構(gòu)、內(nèi)存模型和高速互連,把單位能耗下的有效算力密度推到新的高度。
對于LLM開發(fā)者而言,NVIDIA DGX Spark最具”爆發(fā)力”的能力,在于其配備128GB LPDDR5x統(tǒng)一系統(tǒng)內(nèi)存。這套內(nèi)存采用256-bit位寬,總帶寬達到273 GB/s,由CPU與GPU 共享同一物理內(nèi)存池。
與傳統(tǒng)“CPU 內(nèi)存+獨立顯存”的割裂架構(gòu)不同,統(tǒng)一的內(nèi)存從根本上繞開了24GB、48GB顯存所形成的硬性上限。系統(tǒng)可以根據(jù)實際負載動態(tài)分配內(nèi)存資源,模型參數(shù)、KV Cache,以及中間張量無需在 CPU內(nèi)存與GPU顯存之間反復(fù)搬運,不僅降低了內(nèi)存拷貝帶來的時延,也顯著簡化了大模型部署與調(diào)優(yōu)的復(fù)雜度。
對開發(fā)者來說,這意味著可以在單機環(huán)境中承載更大的模型規(guī)模,并獲得更穩(wěn)定、可預(yù)測的推理性能。
回到最初的問題:什么樣的機器,才配得上“生產(chǎn)力引擎”?
前文所拆解的,并不僅是DGX Spark的性能參數(shù),更是整套計算范式的變化。從統(tǒng)一內(nèi)存打破顯存墻,到CPU與GPU在同一物理內(nèi)存池內(nèi)協(xié)同調(diào)度;從單機即可承載數(shù)百億參數(shù)模型,到通過高速互連實現(xiàn)近線性的算力擴展。這些設(shè)計共同指向一個事實——AI計算正在從“被調(diào)用的資源”,轉(zhuǎn)變?yōu)椤翱砷L期擁有、持續(xù)演進的系統(tǒng)”。
當模型可以在本地完成推理、微調(diào)與迭代,當數(shù)據(jù)與權(quán)重不再只是臨時加載的消耗品,而是可以長期沉淀、不斷增值的資產(chǎn),計算設(shè)備本身的角色也隨之發(fā)生改變——它不再是終端,而是個人級算力基礎(chǔ)設(shè)施。
從這個意義上看,“每個人都應(yīng)該擁有一臺AI超算”或許是大模型時代對生產(chǎn)力工具提出的現(xiàn)實要求。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.