![]()
最近,當OpenAI、谷歌、DeepSeek、阿里巴巴、騰訊和智譜等公司還在激烈角逐大模型的時候,當AI開發者和用戶還在搗鼓智能體、Skills的時候,一款名為OpenClaw的AI助手突然面世并火爆出圈。OpenClaw一時間成為歷史上增長最快的開源項目之一,那么OpenClaw到底是什么?它的最佳硬件拍檔是誰?
OpenClaw是什么?
![]()
簡單來講,OpenClaw是一款在本地或自托管環境運行的開源AI助手,它是一款自主智能體,可以通過大模型執行任務,主要的用戶界面是各類社交聊天平臺。OpenClaw可以部署在macOS、Windows或者Linux平臺,接入大模型之后,用戶可以通過WhatsApp、Telegram、Slack、Discord、iMessage、Signal和飛書等社交工具與它交互、對話。
它除了能夠像大模型那樣回答問題,它還可以執行Shell指令、控制你的瀏覽器、讀取或者寫入文件、管理你的日程,甚至發送電子郵件、打開特定的應用程序等,這些都由你與OpenClaw溝通時所發的文字消息觸發。
![]()
因此總體來講,如果你在部署OpenClaw的設備上給它足夠的權限,那么它可以在你的指示下像人類一樣操控電腦。正因如此,OpenClaw才被稱為真正的“賈維斯”,也正因如此,OpenClaw團隊會在大家部署OpenClaw的時候彈出安全風險通知。眾多開發者也建議用戶將其部署在備用PC上來體驗,并時刻注意安全風險。
![]()
有人將OpenClaw連接到現實世界,直接讓它控制燒洗澡水的鍋爐,定時并根據天氣情況來燒熱水,避免冬天沒有熱水洗澡。更有甚者,還有很多人通過OpenClaw來炒股、寫自媒體文章和運營社群等。不少公司還嘗試將OpenClaw作為內部的“公司助手”,接在各類SaaS和數據系統上做自動化。
部署OpenClaw需要哪些硬件?
![]()
我們如果想要體驗OpenClaw,應該關心的重點是思考用什么大模型服務來接入OpenClaw(畢竟OpenClaw本身并不是大模型)。究竟是接入在線的云端大模型,還是接入本地部署的大模型?
使用云端大模型的最大缺點在于高昂的費用。因為在這個過程中,我們需要通過API接入使用云端大模型,OpenAI、谷歌等大模型提供商都是按Token數量收費,再加上OpenClaw的強大表現,自然會花費大量Token,輸入百萬token需要5美元,輸出百萬token又得25美元。如果是企業客戶使用,那么Token費用可能會達到天價,這不是一般的初創團隊、中小企業能承受的,長期使用本地部署顯得勢在必行。
![]()
另外,使用云端大模型還有隱私和安全方面的重大隱患。我們知道OpenClaw允許智能體在本機執行Shell、讀寫文件或者調用腳本,一旦通過云端大模型做“思考”和決策,攻擊者就可以通過提示詞注入或惡意數據,遠程誘導大模型下指令,讓OpenClaw在你的電腦上執行危險操作。
此外,為了讓云端大模型“理解上下文”,OpenClaw可能還會把聊天記錄、文件片段甚至密碼提示、聊天歷史等內容打包發給外部模型服務,這些內容一旦進入云端就受制于對方的隱私策略、日志策略和潛在的數據濫用風險。試想一下,如果你是公司老板,你愿不愿意將自家公司的核心數據暴露出去?
況且,接入云端大模型必然還會帶來網絡延遲和服務穩定性的問題,智能體可能在做一些操作時因為網絡抖動、API限流而中斷,造成半成品操作或“中途停手”的異常狀態。由于大模型輸出具有隨機性和不可預期性,同樣的提示詞、同樣的環境可能產生不同的操作路徑,如果因網絡問題導致中斷,這在“系統級自動化”場景里意味著難以復現和回歸測試,這對企業用戶來講得不償失。
OpenClaw的最佳硬件拍檔:AMD銳龍AI Max+ 395平臺
相對于接入云端大模型,接入本地大模型對企業用戶來講才是最佳選擇。這基本上就是把OpenClaw從“云端大號遙控器”變成了“自己機房里的AI中樞”。這樣做在隱私、安全、成本、可控性和場景適配上都有非常明顯的優勢。
![]()
展開來看,在隱私和合規優勢上,當OpenClaw搭配Ollama、LM Studio在本地通過GPU跑模型時,推理全過程(理解指令、讀取文件和生成結果)都在本機完成,提示詞、文檔和中間產物不會發往云端API,這對財務報表、法律文書和客戶數據等敏感場景非常關鍵。
第二個優勢是成本結構更可控。用本地模型替代云端模型之后,整個智能體的鏈路不再每次調用都付雙向的API費用,只需要一次性的硬件投入就能讓高頻自動化任務不再“燒Token”和“燒錢”。畢竟在本地部署各種開源大模型之后接入OpenClaw,Token數量是無限而且免費的。像OpenClaw創始人說的Minimax模型,也可以用兩臺搭載銳龍AI Max+ 395的桌面Mini AI工作站串聯運行(有些帶跳線支持一鍵啟動組件集群),相較于頂配的Mac Studio,兩臺搭載銳龍AI Max+ 395的設備購買更便宜,也更可行。
![]()
另外,接入本地模型之后還有離線可用的優勢,即OpenClaw的整個智能決策與工具調用可以完全離線操作,不用依賴網絡環境。對于在工廠、機房、科室或者實驗室等“封閉網絡”中部署OpenClaw的單位和機構來說,本地模型可能是唯一可行的方案,這樣可以在內網環境中實現日志分析、控制腳本執行等自動化。
![]()
AMD銳龍AI Max+ 395處理器優勢突出,這款處理器采用“CPU+IGPU+NPU”異構架構,集成16大核心Zen 5 CPU、RDNA 3.5圖形單元及高達50 TOPS算力的NPU,更通過UMA統一內存架構支持最高128GB內存,其中96GB可專用于顯存。這徹底解決了本地大模型運行中的“顯存焦慮”,使得其能夠在本地流暢運行千億參數規模的模型。
![]()
自正式發布以來,AMD銳龍AI Max+ 395處理器憑借強大的性能表現和出色的大模型部署表現,開辟出全新的迷你AI工作站細分市場。更重要的是,目前基于AMD銳龍AI Max+ 395處理器的迷你AI工作站產品已經進入各行各業,為用戶帶來領先的AI體驗。
![]()
更重要的是,AMD銳龍AI Max+ 395迷你AI工作站非常適合用來部署本地大模型。根據我們以往的測試成績,該平臺能夠暢跑70B稠密大模型(推理速度達到5.84 tokens/s),對于120B的MoE大模型,它的推理速度更是高達48.05 tokens/s,應對80B、30B等主流的MoE模型幾乎是小菜一碟。
另外,由于AMD銳龍AI Max+ 395平臺最高支持128GB內存,最高可分配96GB空間作為顯存,因此它在部署大模型時具備相當充裕的硬件空間。我們在64GB顯存的設置下嘗試同時部署三個大模型:兩個30B MoE大模型和一個14B稠密大模型。部署這三個大模型之后,系統只占用了大約50GB顯存,剩下的硬件空間還比較充裕。
![]()
對OpenClaw用戶來講,將OpenClaw接入AMD銳龍AI Max+ 395平臺部署的本地大模型之后,在使用OpenClaw的過程中可以同時接入多個模型同步調用,或者隨時切換各種所需的大模型,若是換成其他Windows 11的獨顯平臺,非但無法部署規模超大的模型(要知道臺式機獨顯RTX 5090也僅有區區32GB的顯存),就算勉強部署,硬件空間也非常吃緊,需要不斷加載和卸載……無法對比調用更談不上提升效率。
![]()
我們早前成功在搭載銳龍AI Max+ 395的機器上部署好了OpenClaw,同時還在本地部署了Qwen3-Coder-Next模型。因為模型部署在本地,所以我們使用OpenClaw的時候根本不用擔心Token用量的成本問題。
更進階的玩法是,將AMD銳龍AI Max+ 395迷你AI工作站視作本地大模型API中心,在局域網的其他設備上部署OpenClaw,然后遠程接入使用AMD銳龍AI Max+ 395迷你AI工作站提供的本地大模型,這對初創團隊、中小企業來講是更符合實際的選擇。
總結
總的來看,OpenClaw本身很有特色,功能強大,它代表著AI向前發展的下一個范式。對普通用戶來說,可以快速體驗到新一代AI助手的魅力。不過對于企業用戶、AI開發者或者AI發燒友來說,接入本地模型才能在隱私安全、Token費用等方面取得保障,沒有網絡延遲,支持多個大模型本地同步調用,甚至還能多臺設備串聯提升部署能力,而AMD銳龍AI Max+ 395迷你AI工作站毫無疑問是目前市面上部署本地大模型的最佳平臺,它的硬件空間寬裕,能夠高效運行超大參數的大模型,可以作為本地AI算力中心來接入OpenClaw。OpenClaw與AMD銳龍AI Max+ 395平臺堪稱天作之合,值得大家選購進而加速本地AI部署。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.