![]()
最近,當(dāng)OpenAI、谷歌、DeepSeek、阿里巴巴、騰訊和智譜等公司還在激烈角逐大模型的時(shí)候,當(dāng)AI開(kāi)發(fā)者和用戶還在搗鼓智能體、Skills的時(shí)候,一款名為OpenClaw的AI助手突然面世并火爆出圈。OpenClaw一時(shí)間成為歷史上增長(zhǎng)最快的開(kāi)源項(xiàng)目之一,那么OpenClaw到底是什么?它的最佳硬件拍檔是誰(shuí)?
OpenClaw是什么?
![]()
簡(jiǎn)單來(lái)講,OpenClaw是一款在本地或自托管環(huán)境運(yùn)行的開(kāi)源AI助手,它是一款自主智能體,可以通過(guò)大模型執(zhí)行任務(wù),主要的用戶界面是各類社交聊天平臺(tái)。OpenClaw可以部署在macOS、Windows或者Linux平臺(tái),接入大模型之后,用戶可以通過(guò)WhatsApp、Telegram、Slack、Discord、iMessage、Signal和飛書等社交工具與它交互、對(duì)話。
它除了能夠像大模型那樣回答問(wèn)題,它還可以執(zhí)行Shell指令、控制你的瀏覽器、讀取或者寫入文件、管理你的日程,甚至發(fā)送電子郵件、打開(kāi)特定的應(yīng)用程序等,這些都由你與OpenClaw溝通時(shí)所發(fā)的文字消息觸發(fā)。
![]()
因此總體來(lái)講,如果你在部署OpenClaw的設(shè)備上給它足夠的權(quán)限,那么它可以在你的指示下像人類一樣操控電腦。正因如此,OpenClaw才被稱為真正的“賈維斯”,也正因如此,OpenClaw團(tuán)隊(duì)會(huì)在大家部署OpenClaw的時(shí)候彈出安全風(fēng)險(xiǎn)通知。眾多開(kāi)發(fā)者也建議用戶將其部署在備用PC上來(lái)體驗(yàn),并時(shí)刻注意安全風(fēng)險(xiǎn)。
![]()
有人將OpenClaw連接到現(xiàn)實(shí)世界,直接讓它控制燒洗澡水的鍋爐,定時(shí)并根據(jù)天氣情況來(lái)燒熱水,避免冬天沒(méi)有熱水洗澡。更有甚者,還有很多人通過(guò)OpenClaw來(lái)炒股、寫自媒體文章和運(yùn)營(yíng)社群等。不少公司還嘗試將OpenClaw作為內(nèi)部的“公司助手”,接在各類SaaS和數(shù)據(jù)系統(tǒng)上做自動(dòng)化。
部署OpenClaw需要哪些硬件?
![]()
我們?nèi)绻胍w驗(yàn)OpenClaw,應(yīng)該關(guān)心的重點(diǎn)是思考用什么大模型服務(wù)來(lái)接入OpenClaw(畢竟OpenClaw本身并不是大模型)。究竟是接入在線的云端大模型,還是接入本地部署的大模型?
使用云端大模型的最大缺點(diǎn)在于高昂的費(fèi)用。因?yàn)樵谶@個(gè)過(guò)程中,我們需要通過(guò)API接入使用云端大模型,OpenAI、谷歌等大模型提供商都是按Token數(shù)量收費(fèi),再加上OpenClaw的強(qiáng)大表現(xiàn),自然會(huì)花費(fèi)大量Token,輸入百萬(wàn)token需要5美元,輸出百萬(wàn)token又得25美元。如果是企業(yè)客戶使用,那么Token費(fèi)用可能會(huì)達(dá)到天價(jià),這不是一般的初創(chuàng)團(tuán)隊(duì)、中小企業(yè)能承受的,長(zhǎng)期使用本地部署顯得勢(shì)在必行。
![]()
另外,使用云端大模型還有隱私和安全方面的重大隱患。我們知道OpenClaw允許智能體在本機(jī)執(zhí)行Shell、讀寫文件或者調(diào)用腳本,一旦通過(guò)云端大模型做“思考”和決策,攻擊者就可以通過(guò)提示詞注入或惡意數(shù)據(jù),遠(yuǎn)程誘導(dǎo)大模型下指令,讓OpenClaw在你的電腦上執(zhí)行危險(xiǎn)操作。
此外,為了讓云端大模型“理解上下文”,OpenClaw可能還會(huì)把聊天記錄、文件片段甚至密碼提示、聊天歷史等內(nèi)容打包發(fā)給外部模型服務(wù),這些內(nèi)容一旦進(jìn)入云端就受制于對(duì)方的隱私策略、日志策略和潛在的數(shù)據(jù)濫用風(fēng)險(xiǎn)。試想一下,如果你是公司老板,你愿不愿意將自家公司的核心數(shù)據(jù)暴露出去?
況且,接入云端大模型必然還會(huì)帶來(lái)網(wǎng)絡(luò)延遲和服務(wù)穩(wěn)定性的問(wèn)題,智能體可能在做一些操作時(shí)因?yàn)榫W(wǎng)絡(luò)抖動(dòng)、API限流而中斷,造成半成品操作或“中途停手”的異常狀態(tài)。由于大模型輸出具有隨機(jī)性和不可預(yù)期性,同樣的提示詞、同樣的環(huán)境可能產(chǎn)生不同的操作路徑,如果因網(wǎng)絡(luò)問(wèn)題導(dǎo)致中斷,這在“系統(tǒng)級(jí)自動(dòng)化”場(chǎng)景里意味著難以復(fù)現(xiàn)和回歸測(cè)試,這對(duì)企業(yè)用戶來(lái)講得不償失。
OpenClaw的最佳硬件拍檔:AMD銳龍AI Max+ 395平臺(tái)
相對(duì)于接入云端大模型,接入本地大模型對(duì)企業(yè)用戶來(lái)講才是最佳選擇。這基本上就是把OpenClaw從“云端大號(hào)遙控器”變成了“自己機(jī)房里的AI中樞”。這樣做在隱私、安全、成本、可控性和場(chǎng)景適配上都有非常明顯的優(yōu)勢(shì)。
![]()
展開(kāi)來(lái)看,在隱私和合規(guī)優(yōu)勢(shì)上,當(dāng)OpenClaw搭配Ollama、LM Studio在本地通過(guò)GPU跑模型時(shí),推理全過(guò)程(理解指令、讀取文件和生成結(jié)果)都在本機(jī)完成,提示詞、文檔和中間產(chǎn)物不會(huì)發(fā)往云端API,這對(duì)財(cái)務(wù)報(bào)表、法律文書和客戶數(shù)據(jù)等敏感場(chǎng)景非常關(guān)鍵。
第二個(gè)優(yōu)勢(shì)是成本結(jié)構(gòu)更可控。用本地模型替代云端模型之后,整個(gè)智能體的鏈路不再每次調(diào)用都付雙向的API費(fèi)用,只需要一次性的硬件投入就能讓高頻自動(dòng)化任務(wù)不再“燒Token”和“燒錢”。畢竟在本地部署各種開(kāi)源大模型之后接入OpenClaw,Token數(shù)量是無(wú)限而且免費(fèi)的。
像OpenClaw創(chuàng)始人說(shuō)的Minimax模型,也可以用兩臺(tái)搭載銳龍AI Max+ 395的桌面Mini AI工作站串聯(lián)運(yùn)行(有些帶跳線支持一鍵啟動(dòng)組件集群),相較于頂配的Mac Studio,兩臺(tái)搭載銳龍AI Max+ 395的設(shè)備購(gòu)買更便宜,也更可行。
![]()
另外,接入本地模型之后還有離線可用的優(yōu)勢(shì),即OpenClaw的整個(gè)智能決策與工具調(diào)用可以完全離線操作,不用依賴網(wǎng)絡(luò)環(huán)境。對(duì)于在工廠、機(jī)房、科室或者實(shí)驗(yàn)室等“封閉網(wǎng)絡(luò)”中部署OpenClaw的單位和機(jī)構(gòu)來(lái)說(shuō),本地模型可能是唯一可行的方案,這樣可以在內(nèi)網(wǎng)環(huán)境中實(shí)現(xiàn)日志分析、控制腳本執(zhí)行等自動(dòng)化。
![]()
AMD銳龍AI Max+ 395處理器優(yōu)勢(shì)突出,這款處理器采用“CPU+IGPU+NPU”異構(gòu)架構(gòu),集成16大核心Zen 5 CPU、RDNA 3.5圖形單元及高達(dá)50 TOPS算力的NPU,更通過(guò)UMA統(tǒng)一內(nèi)存架構(gòu)支持最高128GB內(nèi)存,其中96GB可專用于顯存。這徹底解決了本地大模型運(yùn)行中的“顯存焦慮”,使得其能夠在本地流暢運(yùn)行千億參數(shù)規(guī)模的模型。
![]()
自正式發(fā)布以來(lái),AMD銳龍AI Max+ 395處理器憑借強(qiáng)大的性能表現(xiàn)和出色的大模型部署表現(xiàn),開(kāi)辟出全新的迷你AI工作站細(xì)分市場(chǎng)。更重要的是,目前基于AMD銳龍AI Max+ 395處理器的迷你AI工作站產(chǎn)品已經(jīng)進(jìn)入各行各業(yè),為用戶帶來(lái)領(lǐng)先的AI體驗(yàn)。
![]()
更重要的是,AMD銳龍AI Max+ 395迷你AI工作站非常適合用來(lái)部署本地大模型。根據(jù)我們以往的測(cè)試成績(jī),該平臺(tái)能夠暢跑70B稠密大模型(推理速度達(dá)到5.84 tokens/s),對(duì)于120B的MoE大模型,它的推理速度更是高達(dá)48.05 tokens/s,應(yīng)對(duì)80B、30B等主流的MoE模型幾乎是小菜一碟。
另外,由于AMD銳龍AI Max+ 395平臺(tái)最高支持128GB內(nèi)存,最高可分配96GB空間作為顯存,因此它在部署大模型時(shí)具備相當(dāng)充裕的硬件空間。我們?cè)?4GB顯存的設(shè)置下嘗試同時(shí)部署三個(gè)大模型:兩個(gè)30B MoE大模型和一個(gè)14B稠密大模型。部署這三個(gè)大模型之后,系統(tǒng)只占用了大約50GB顯存,剩下的硬件空間還比較充裕。
![]()
對(duì)OpenClaw用戶來(lái)講,將OpenClaw接入AMD銳龍AI Max+ 395平臺(tái)部署的本地大模型之后,在使用OpenClaw的過(guò)程中可以同時(shí)接入多個(gè)模型同步調(diào)用,或者隨時(shí)切換各種所需的大模型,若是換成其他Windows 11的獨(dú)顯平臺(tái),非但無(wú)法部署規(guī)模超大的模型(要知道臺(tái)式機(jī)獨(dú)顯RTX 5090也僅有區(qū)區(qū)32GB的顯存),就算勉強(qiáng)部署,硬件空間也非常吃緊,需要不斷加載和卸載……無(wú)法對(duì)比調(diào)用更談不上提升效率。
![]()
我們?cè)缜俺晒υ诖钶d銳龍AI Max+ 395的機(jī)器上部署好了OpenClaw,同時(shí)還在本地部署了Qwen3-Coder-Next模型。因?yàn)槟P筒渴鹪诒镜兀晕覀兪褂肙penClaw的時(shí)候根本不用擔(dān)心Token用量的成本問(wèn)題。
更進(jìn)階的玩法是,將AMD銳龍AI Max+ 395迷你AI工作站視作本地大模型API中心,在局域網(wǎng)的其他設(shè)備上部署OpenClaw,然后遠(yuǎn)程接入使用AMD銳龍AI Max+ 395迷你AI工作站提供的本地大模型,這對(duì)初創(chuàng)團(tuán)隊(duì)、中小企業(yè)來(lái)講是更符合實(shí)際的選擇。
總結(jié)
總的來(lái)看,OpenClaw本身很有特色,功能強(qiáng)大,它代表著AI向前發(fā)展的下一個(gè)范式。對(duì)普通用戶來(lái)說(shuō),可以快速體驗(yàn)到新一代AI助手的魅力。不過(guò)對(duì)于企業(yè)用戶、AI開(kāi)發(fā)者或者AI發(fā)燒友來(lái)說(shuō),接入本地模型才能在隱私安全、Token費(fèi)用等方面取得保障,沒(méi)有網(wǎng)絡(luò)延遲,支持多個(gè)大模型本地同步調(diào)用,甚至還能多臺(tái)設(shè)備串聯(lián)提升部署能力,而AMD銳龍AI Max+ 395迷你AI工作站毫無(wú)疑問(wèn)是目前市面上部署本地大模型的最佳平臺(tái),它的硬件空間寬裕,能夠高效運(yùn)行超大參數(shù)的大模型,可以作為本地AI算力中心來(lái)接入OpenClaw。OpenClaw與AMD銳龍AI Max+ 395平臺(tái)堪稱天作之合,值得大家選購(gòu)進(jìn)而加速本地AI部署。
友情提示
MCer請(qǐng)注意,由于微信公眾號(hào)調(diào)整了推薦機(jī)制,如果你發(fā)現(xiàn)最近很難刷到Microcomputer(微型計(jì)算機(jī))公眾賬號(hào)推送的文章,但是又不想錯(cuò)過(guò)微機(jī)的精彩評(píng)測(cè)內(nèi)容,可以動(dòng)動(dòng)小手指把Microcomputer設(shè)置成星標(biāo)公眾賬號(hào)哦!
![]()
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.