引子:
無論是2026年伊始的AI應用入口爭奪戰,還是近期業內爆火OpenClaw(原Clawdbot/Moltbot)項目都預示著,AI技術正在進入廣泛的生產性落地階段。由此,行業的發展側重點也將從過往的大小模型訓練/微調轉型為“訓推并重+應用爆發”。換言之,如何利用過往積累的AI技術成果,實現快速開發、快速迭代將成為組織發展的新風口。而在這一階段,開發者也將扮演越來越重要的角色。
那么,AI時代的開發者需要怎樣的設備來提質增效呢?在算力為王的背景下,過往那種一臺電腦、一杯咖啡就能“改變世界”的開發場景還能復現嗎?
一封寫給AI開發者的情書
開發者是個極為廣泛的群體,既包含大中小企業里的全職軟件工程團隊,也包括高教等場景中廣泛存在的各類實驗室、學術小組。
對于AI開發者而言,算力集群和8卡服務器雖然性能強勁,但它們太大、太重、太貴、太遠、太難配置,很難完全滿足快速開發、敏捷開發的需求;而傳統PC又因為AI算力和顯存的不足而無法支撐工作。
面對時代風口,所有類型的AI開發者都在期待一臺既能擁有超強算力和大容量顯存,又能擺在桌面的全新設備;而這正是聯想推出ThinkStation PGX AI工作站(以下簡稱聯想PGX工作站)的核心目的。
![]()
作為一款以全行業AI開發者為目標用戶的小型化產品,聯想PGX工作站將磅礴算力濃縮進了1升機箱之中,并且保持了低功耗、低噪音特性。這樣的特性使其可以被部署在各類辦公區、實驗室、教室及邊緣場景中,適用于各類中小型模型和AI應用的推理場景。
為了同時滿足算力、體積和功耗目標,聯想PGX工作站在1升體積的機箱內搭載了一顆NVIDIA GB10 Grace Blackwell超級芯片;其不僅集成了20核ARM處理器,更提供了一顆包含6144個CUDA核心的Blackwell架構GPU。在FP4精度下,聯想PGX工作站可以提供1 PFlops的峰值算力,且功耗不足240瓦。
同時為了滿足大模型等應用的需求,聯想PGX工作站還集成了高達128GB的LPDDR5x統一內存,讓AI應用不會輕易“爆顯存”。
![]()
在此基礎上,聯想PGX工作站還能借助內置的NVIDIA ConnectX-7智能網卡組建雙機集群,繼而實現算力和統一內存容量的倍增,讓用戶可以輕松應對更大規模的應用。而小體積+低功耗+靜音的設計也讓這種雙機集群的升級方式絲毫不會影響其易部署的核心特性。
![]()
聯想ThinkStation PGX QSFP Link Cable
由于工作站內部的算力硬件均來自NVIDIA,因此工作站在軟件層面也保持了對CUDA生態的完整兼容,可有效避免“一次開發,到處調試優化”的尷尬局面,讓開發者編寫的模型和應用既能在廣泛的應用場景中獲得應用,也無需擔心后期切換生態所帶來的各類隱性成本。
基于這些核心特性,我們便能總結聯想PGX工作站的核心特性:
用強大的本地算力提升開發者的工作效率;
用小巧的體積和更低的功耗、噪音來提升工作站在各類場景中的適應性;
用先進網絡提升硬件和算力的可擴展性;
用更主流的技術生態來構建教學-開發-應用之間的一致性。
而擁有這些典型特性的聯想PGX工作站正是開發者群體在開發、研究、教育教學等場景中所期待的新一代AI硬件,是聯想對AI“短平快”理念的絕佳詮釋。
小巧,才能融入所有場景在場景中發揮價值
聯想PGX工作站形態與各類工控機相仿,體積僅為1升左右(15*15*5.05厘米),能夠輕松融入辦公室桌面、實驗室、生產車間等所有環境,作為中小型模型推理和AI應用開發等AI業務流的算力核心。
![]()
在企業辦公場景中,聯想PGX工作站可以放置在辦公桌上,連接鍵鼠和顯示器,作為AI程序的開發和調試終端來使用;其安靜的運行效果完全不會影響辦公區的正常辦公環境。又或者,多名用戶可以通過虛擬桌面、命令行等方式遠程訪問聯想PGX工作站,獲得更便利的使用體驗。
在制造業場景中,聯想PGX工作站可以像所有工控機一樣,部署在產線之中,基于計算機視覺模型來成為探傷和缺陷識別功能的算力核心。憑借出色的制造工藝和嚴格的質量測試,聯想PGX工作站能夠在嚴苛的工作環境中保持穩定。
在高校和實驗室場景中,聯想PGX工作站則能憑借更高的性價比和完善的售后服務成為實驗室、學術小組等的共享算力核心,在繁重的教學和研究工作中發揮持久價值。
原汁原味的生態,開箱即用的體驗
1. 聯想PGX工作站外觀 ![]()
聯想PGX工作站整體外觀是一個硬朗的“方盒子”。機身正面是蜂巢形態的進氣格柵以及ThinkStation系列銘文和PGX的產品名稱,灰+黑的配色有著明確的商務屬性簡潔干練,能毫不違和地與各種商務場景融為一體。
![]()
工作站所有接口均在機身背面,從左至右分別是兩個200G QSFP網絡模塊接口,一個10Gb RJ-45網線接口,一個HDMI 2.1a視頻輸出口,4個USB TYPE-C 20G接口,以及一個電源按鈕。
小巧體積+干練設計+豐富接口使得聯想PGX工作站既能在外型層面提升與各類場景的適應性,又能滿足實際開發和教育教學過程中用戶對連接性的多樣化需求。
2. 聯想PGX工作站硬件配置軟硬件配置
![]()
![]()
硬件層面,聯想PGX工作站不僅用20核CPU+Blackwell GPU+128G統一內存的配置將1升工作站的算力水平推向了新高度,更借助兩個支持RDMA和RoCE功能的200G QSFP網絡模塊保證了雙機集群的網絡帶寬,避免了網絡擁塞所帶來的潛在性能損失。
在軟件層面,工作站則通過預裝的全套CUDA環境、集成式IDE開發環境和硬件監控Dashboard做到了原汁原味和開箱即用,能大幅縮短開發者和教育用戶的配置和準備時間,進一步降低了AI工作站的使用門檻。
聯想PGX工作站,全能的AI體驗
我們將通過Ollama、基于ComfyUI的Stable Diffusion和Wan系列模型、ResNet算法等環節來體驗聯想PGX工作站在各類AI應用中的性能表現。
- 大語言模型
使用Ollama來部署各類主流模型,使用“200字簡述企業為什么需要AI”作為提示詞,上下文長度設置為2K,來測試不同大模型的每秒token生成量、首token延遲、統一內存占用情況,以及統一內存中的顯存占用。
Qwen3:4b
![]()
在很多邊緣場景常用的Qwen3:4b模型中,聯想PGX工作站能夠實現67.59 token/s的性能,首token延遲為27.3ms;此時,統一內存占用量為10.42GB(含操作系統占用),其中顯存占用量為3.2GB。
Qwen3:14b
![]()
Qwen3:14b是一款中體量模型,已經能夠承擔不少復雜的AIGC任務并作為AI Agent的基礎參與業務流應用。在運行該模型時,聯想PGX工作站能夠實現20.58 token/s的性能,首token延遲為245.5ms;此時,統一內存占用量為17GB(含操作系統占用),其中顯存占用量為9.4GB。
DeepSeek-r1:32B
![]()
作為風光無兩的開源大模型系列產品,DeepSeek已經成為很多用戶切入大模型賽道的基石。而在中等體量的32B模型中,聯想PGX工作站能夠實現9.55 token/s的性能,首token延遲為156.7ms;此時,統一內存占用量為26.79GB(含操作系統占用),其中顯存占用量為20GB。
DeepSeek-r1:70B
![]()
70B大模型是各類高精度、高復雜度場景的理想選擇,不少專業領域大模型、內容創作大模型都是基于70B的開源模型微調而來。而在DeepSeek-r1:70B模型的測試中,聯想PGX工作站能夠實現4.08 token/s的性能,首token延遲為882.9ms;此時,統一內存占用量為48.91GB(含操作系統占用),其中顯存占用量為41.7GB。
Qwen3:30b-A3B
![]()
Qwen3:30b-A3B是一款經過Q4量化的MoE模型,雖然參數總量達到了30B,但同時激活的參數只有3B,能夠很好地平衡精度和性能。在這款模型的測試中,聯想PGX工作站能夠實現74.08 token/s的性能,比4B模型還要高,首token延遲為136.07ms;此時,統一內存占用量為24.67GB(含操作系統占用),其中顯存占用量為18.2GB。
小結:
從以上不同參數量的多款大模型測試中我們能夠發現,無論是4B的“小模型”還是70B的“大模型”,其統一內存占用量始終沒有超過50GB,都不會在聯想PGX工作站上出現“爆顯存”的現象。而在MoE技術的加持下,聯想PGX工作站則可在保證性能的前提下,挑戰更大參數量的模型推理應用。
此外,由于聯想PGX工作站預裝了NVIDIA CUDA Toolkit、NVIDIA Container Toolkit等一系列實用工具,因此在建立ollama測試環境時只需簡單拉取對應鏡像即可實現對GPU的完整調用,而無需再進行額外的編譯或調試。此時,NVIDIA Dashboard的實時監控也顯示,在通過ollama加載大模型時,GPU使用率能夠輕松維持在95%左右,不會出現GPU閑置的情況。
換言之,無論在性能、統一內存容量還是在部署的簡易程度方面,聯想PGX工作站都能滿足開發者群體快速部署、快速應用的需求。而由此節省下來的時間和資金更是AI時代的珍貴資源。
- 文生圖、文生視頻大模型
通過ComfyUI加載各類文生圖、文生視頻大模型和對應的工作模版來測試聯想PGX工作站在對應場景中的內容生成時間。
Stable Diffusion 3.5文生圖大模型
![]()
在文生圖測試中,我們使用ComfyUI加載SD3.5_large_fp8_scaled模型(經過FP8量化,參數量約為8B)和默認模板來生成圖像。關鍵詞如下:
正向prompt:a bottle with a pink and red galaxy inside it on top of a wooden table on a table in the middle of a modern kitchen with a window to the outdoors mountain range bright sun clouds forest
負向prompt:none
在這一設置下,聯想PGX工作站生成4張512*512圖片的總耗時為30.58秒;運行時統一內存占用量為24.15GB,其中14.55GB被用作顯存。
Wan 2.2文生視頻大模型
![]()
在文生視頻測試中,我們同樣使用ComfyUI加載Wan2.2 14B FP8文生視頻模型,以640*480分辨率和24FPS生成一段5秒鐘的視頻。關鍵詞如下:
正向prompt:Beautiful young European woman with honey blonde hair gracefully turning her head back over shoulder, gentle smile, bright eyes looking at camera. Hair flowing in slow motion as she turns. Soft natural lighting, clean background, cinematic slow-motion portrait
負向prompt:色調艷麗,過曝,靜態,細節模糊不清,字幕,風格,作品,畫作,畫面,靜止,整體發灰,最差質量,低質量,JPEG壓縮殘留,丑陋的,殘缺的,多余的手指,畫得不好的手部,畫得不好的臉部,畸形的,毀容的,形態畸形的肢體,手指融合,靜止不動的畫面,雜亂的背景,三條腿,背景人很多,倒著走,NSFW
聯想PGX工作站全程耗時3分49秒。生成過程中統一內存占用量72.64GB,其中53.8GB被用作顯存。
小結:
常見的文生圖大模型對于聯想PGX工作站已是“小菜一碟”。而對于要求更高的Wan2.2 14B FP8文生視頻模型,PGX工作站也同樣舉重若輕;77G的統一內存用量也僅達到了工作站內存容量的60%。要知道過去只有使用全塔機箱和頂級GPU的大型工作站才能剛好滿足Wan2.2 14B模型對顯存的需求,而現在聯想PGX工作站則把這一能力直接濃縮在了1升機箱之內,放在了開發者的桌面,不得不感嘆技術進步的魅力。
- ResNet50測試
在使用聯想PGX工作站通過ResNet50模型進行圖像識別時,模型成功識別出了上傳的車輛照片為福特T型,耗時僅為455ms。此時統一內存占用為7.5GB,其中顯存占用僅為400MB左右。
小結:
使用未經量化和細致優化的標準ResNet50模型進行圖像識別時,聯想PGX工作站已經表現出了極致的性能。這意味著在經過詳細優化之后,工作站的算力水平已經能夠滿足各類生產制造類用戶在產品缺陷識別、質量監控等邊緣場景中的實際生產需求。而工作站本身小體積、低功耗的設計也進一步增加了其在邊緣場景中的應用潛力。
- 功耗溫度及噪音
在22攝氏度、30分貝底噪的安靜室內:
待機空載狀態下,聯想PGX工作站(含適配器)功耗僅為40瓦,機身頂部中間位置的溫度為26.4攝氏度,而60厘米距離的人位噪音也被30分貝的環境底噪所完全掩蓋。
而在滿載情況下,聯想PGX工作站(含適配器)功耗也僅為190瓦,機身頂部中間位置的溫度為29.1攝氏度,60厘米距離的人位噪音為36.5分貝。
總結:桌面上的微型AI超算,開發者手中的AI神器
經過文生文、文生圖、文生視頻、AI視覺等多維度的測試,我們可以說,將聯想PGX工作站絕對是一款能擺上桌面的微型AI超算。對于開發者而言,聯想PGX工作站則滿足了其對設備的幾乎全部想象。
實際測試過程中,筆者也充分感受到了聯想PGX工作站的強大。20核Grace處理器和Blackwell架構GPU的組合表現優秀,在同時運行多個容器并持續重負載時依舊能保持基礎操作的流暢。這意味著開發者可以一邊跑大模型,一邊寫代碼,效率更高。
同時,巨大的128G統一內存也完全超過了“夠用”層級,使得筆者可以直接跳過對模型參數量和顯存需求的各類換算,直接“挑大的用,挑好的用”。而對于開發者來說,更高的統一內存容量也能減少對比選型時的各種限制,以及頻繁的模型加載/卸載過程。
另一方面,聯想PGX工作站超靜音表現則完全超出了筆者的預期。即使身處30分貝底噪的安靜室內(相當于夜間臥室的噪音水平),低負載的聯想PGX工作站也能完全融入底噪,無法被人耳察覺。即便滿負載運行,36.5分貝的噪音水平也要比絕大多數辦公室、實驗室的正常底噪要低,更是多數工作站無法企及的水平。如果AI開發者和企事業單位想構建一個更安靜優雅的開發辦公環境,聯想PGX工作站是絕對的不二之選。
![]()
此外,聯想PGX工作站預裝的完整CUDA環境也讓整個測試流程異常順利。在運行Ollama、ComfyUI等流行應用時,只需拉取ARM版的官方或社區鏡像就能順利完成測試,GPU也能跑滿負載,不會遇到第三方系統中常見的CUDA版本不對、環境依賴缺失、GPU無法啟用等現象,節省了大量調試和重編譯時間。而這種開箱即用的體驗對于開發者和各類AI項目來說也是提質增效的關鍵一環。
作為大廠精品,PGX工作站也背靠著聯想的龐大產能和頂尖服務能力,而這也讓聯想PGX工作站工作站成為了一款有設計、有技術、有供應、有保障的AI工作站標桿;不僅適合企業、高校等各類單位為開發者批量采購,更是組織擁抱AI新時代的全新著力點。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.