在 2026 年的今天,如果你還在對著 ChatGPT 或者 Claude 的聊天框發呆,那你可能錯過了一個新的交互形式。
不管是GPT-4o還是最新的 Gemini,無論它們在服務器端被調教得多么聰明,終究只是被困在瀏覽器里的“缸中之腦”。它們可以為你寫出一段完美的代碼,但卻無法幫你把這段代碼保存到桌面,無法幫你點擊運行,更無法幫你整理硬盤里亂七八糟的文件。
![]()
這就是為什么OpenClaw在GitHub上會如此火爆的原因。它不是一個單純的聊天機器人,而是一個Agent(行動智能體)。簡單來說,OpenClaw就是給大模型裝上了“手”和“腳”,讓 AI 第一次擁有了直接操作操作系統的權限。
![]()
前段時間,社交媒體上關于本地部署OpenClaw的教程紛紛刷屏。在本地運行一個足夠聰明、能寫代碼的大模型需要巨大的顯存,而在傳統PC陣營,即便是臺式機中的RTX 5090用戶,也常常被32GB的“顯存墻”卡得死死的。難道Windows用戶就不能擁有自己的本地 Jarvis 嗎?帶著這個“不信邪”的疑問,我把目光投向了 AMD。
![]()
可能有人對 AMD 的印象還停留在“玩游戲選 AMD”這種純性能維度上,但其實AMD在移動端還有一個大招,就是銳龍AI Max系列處理器。這一代處理器最革命性的革新,就是要把蘋果引以為傲的“統一內存架構”帶入 x86 世界。
![]()
為了驗證這塊CPU的本地部署能力,我搞到了這臺搭載AMD 銳龍 AI Max+ 395的abee AI Station 395 Max。今天,我就要用這臺機器,從零開始,給大家分享如何在地表最強的移動端SoC上,暴力馴服OpenClaw。
![]()
在上手折騰軟件之前,咱們得先聊聊這臺機器的底氣。這顆AMD銳龍AI Max+ 395采用chiplet小芯片設計,在塞進16個全血Zen 5 CPU 核心的同時,還集成了規模接近中高端獨顯級別的GPU單元。對喜歡玩AI的用戶來說,最讓人興奮的不僅是核心數,而是128GB LPDDR5x-8000 的統一內存。
![]()
與PC陣營相比,以前統一內存是蘋果Mac獨有的優勢,在本地AI部署上相應的占優。
![]()
而AMD這次也在X86陣營帶來了統一內存架構技術,CPU、GPU和NPU共享同一個巨大的內存池,還可以在系統中通過使用VGM可變顯存技術,靈活調整內存與顯存的分配比例,最高可以預留高達96GB的內存空間供GPU專屬使用。現在市面上有些銳龍AI Max系列工作站甚至還支持2U+甚至更多臺的并聯跳線設計,內存空間更是能直接翻倍增長至192GB乃至更高。這種架構上的質變,讓 Windows 陣營也能真正跑起超大參數模型,相比于Mac機型而言,用銳龍AI Max系列機型進行本地部署,AI性能更加強大,同時單體購置成本也更低。就拿最近大火的Claudecode來說,輸入百萬token需要5美元,輸出百萬token又得25美元。長期使用本地部署顯得勢在必行,長期使用總成本更經濟。
![]()
頂級芯片得配個好機身,今天介紹的就是這臺abee AI Station 395 Max。
![]()
abee這個牌子DIY的用戶是非常熟悉的,鋁材工藝可以說是天花板級別了,所以在機身上,我們依舊能感受到abee獨有的工業設計風格。
![]()
這臺機器他們沒定位成普通的Mini PC,而是桌面級Mini AI工作站。它的個頭比Mac Studio稍微大一圈,但這多出來的體積換來的是實打實的散熱效率。
![]()
它內部這套多島式全覆蓋液冷散熱系統,能保證在AI這種高強度的滿載推理下,機器不因為過熱而掉速,它本身也是一個巨大的散熱片,全鋁機身不僅是好看,對可靠性、防護性和耐用性都有所增強。對于既看重性能穩定性,又對桌面審美有要求的極客來說,這臺機器算是把硬件性能給封裝得恰到好處。
![]()
硬件到位了,接下來就是軟件實戰。直接打開OpenClaw官網,點擊Quick Start,復制那行PowerShell命令到終端。
![]()
在PowerShell中輸入:curl -fsSL https://openclaw.ai/install.sh | bash(需在WSL或Git Bash環境下執行)
![]()
一切都很順利,腳本可以拉取環境、配置依賴。
![]()
模型選擇上,我測試的是Qwen3-Coder,在96GB統一內存預留空間下可以完整加載并保持流暢推理。通過Verbose指令我們能看到實際推理速度還是非常快的,在本地環境下已經進入流暢使用的區間,統一內存架構的優勢就直接體現出來了,充足的顯存空間允許上下文完整駐留,減少頻繁換入換出。
![]()
在部署完成后,我們可以直接在PowerShell中輸入:OpenClaw Dash進入它的網頁端界面。
![]()
部署成功只是第一步,它到底能不能干活才是關鍵。為了測試這臺機器的極限,我直接給它下達了一個復雜的編程指令:“使用Python的Pygame 庫,幫我寫一個賽博朋克風格的貪吃蛇游戲,寫完后直接在桌面上運行它。”此時觀察性能,GPU占用率會直接飆升,本地的Qwen3-Coder迅速給出了響應。
![]()
![]()
由于省去了云端傳輸的環節,代碼的生成過程非常利落,沒有那種斷斷續續的遲滯感,而且無需任何Tokens費用成本。不到一分鐘,程序生成完畢,終端自動調用Python,游戲窗口彈出并穩定運行。
當然,Agent的能力遠不止于此,它還可以用來做很多工作,變成你的個人員工。我讓OpenClaw幫我生成一個每日自動執行的計劃任務:讀取桌面文件夾中的任務文本,篩選帶有“#緊急”標簽的事項;并讀取支出的賬單,計算總金額并找出最大開銷;最后生成一份日報文件。
![]()
OpenClaw生成了腳本,寫入本地目錄,并協助配置計劃任務。任務被成功寫入調度系統,能夠在指定時間自動執行。在這個過程中,模型不再只是工具,而更像一個自動化協作者。它理解任務目標,生成執行邏輯,并參與系統層面的配置。
![]()
圍繞這種能力,應用場景自然展開。有人用它定期抓取日志并生成分析報告,有人讓它整理下載目錄,有人將其接入本地開發環境,自動構建項目并運行測試流程。它的價值并不在于“多聰明”,而在于“能否穩定執行”。
這種穩定性,與統一內存架構之間有直接關系。當模型完整駐留在充足的顯存空間中,長時間運行不會因為內存不足而頻繁抖動,上下文也不容易丟失。對于 Agent 這種需要持續執行多步驟任務的系統來說,這種結構層面的優勢尤為重要。
經過這一番折騰,我們終于可以回答文章開頭的問題了:如果不用Mac Studio,我們能擁有完美的本地 AI 體驗嗎?答案是肯定的,而且購置成本更具優勢,這就是AMD給出的這個答案,甚至比蘋果更加“極客”。
![]()
OpenClaw只是無數AI應用中的一個縮影,它代表了未來人機交互的方向,AI將深度介入我們的系統底層。在超大模型場景下,傳統CPU+獨顯架構的顯存瓶頸愈發明顯。
![]()
AMD 銳龍 AI Max+ 395的出現,實際上是開辟了一條新賽道。它用128GB統一內存簡單粗暴地解決了本地大模型最大的痛點,同時用創新的Zen 5架構保證了通用計算的性能,再輔以XDNA 2 NPU為未來的低功耗場景兜底。
![]()
對于程序員與創作者來說,本地AI的意義不僅在性能,更在于可控性與數據主權。當模型運行在自己的機器上,隱私、響應延遲、調用權限都掌握在自己手中。在當前 Windows 陣營中,擁有128GB統一內存架構的銳龍 AI Max+ 平臺,提供了一種不同于傳統獨顯路線的解法。它證明了一件事:在大模型時代,內存規模開始成為新的核心競爭力。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.