![]()
以往大家習慣將 AI 能力依賴于公有云服務,而隨著 OpenClaw 等智能體工具的快速普及,不管是個人開發者還是企業更需要一個 7×24 小時運行在本地、可直接響應指令的 “數字員工”。但云端方案存在的數據隱私風險與持續高昂的 API、Token 成本,讓工業級智能體在規模化落地時面臨瓶頸,獨立部署大模型服務已成為企業構建自主可控 AI 能力的必然選擇。
眾智FlagOS 是一款完全開源的 AI 系統軟件棧,支持多款異構 AI 芯片,可讓 AI 模型與智能體輕松實現快速部署。本次 FlagOS 聯合騰訊云 HAI(面向AI和科學計算的容器鏡像中心),將 Qwen3-4B-hygon-flagos 模型鏡像正式上線騰訊云 HAI 社區,開發者可直接拉取使用。基于該鏡像,可快速在加速卡上運行FlagOS + OpenClaw,實現小模型驅動智能體執行,為企業和開發者從公有云 API 轉向自建本地 AI 服務提供了可落地的實踐方案。
安裝及測試過程
基于 FlagOS 系統軟件棧的跨芯能力,眾智 FlagOS 社區把 Qwen3-4B 適配至多款GPU硬件。以下內容重點介紹如何部署與配置 FlagOS 版 Qwen3-4B的過程,僅用于復現實驗結果,不影響對 Agent 能力的判斷。
1.安裝Qwen3-4B-hygon-flagos
- 首先,從 HAI 社區平臺找到 Qwen3-4B-hygon-FlagOS,根據md拉取模型并啟動服務。
以 ModelScope為例,下載模型權重
Plain Text pip install modelscope modelscope download –model Qwen/Qwen3-4B –local_dir /share/Qwen3-4B
Plain Text docker pull haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0
- 通過下面的代碼,啟動容器。
這段代碼可直接復制使用,也可以根據需要修改容器名,即在第4行–name=flagos對 name 進行修改。
SQL #Container Startupdocker run -it \ –name=flagos \ –network=host \ –privileged \ –ipc=host \ –shm-size=16G \ –memory=”512g” \ –ulimit stack=-1:-1 \ –ulimit memlock=-1:-1 \ –cap-add=SYS_PTRACE \ –security-opt seccomp=unconfined \ –device=/dev/kfd \ –device=/dev/dri \ –group-add video \ -u root \ -v /opt/hyhal:/opt/hyhal \ -v /share:/share \ haihub.cn/baai/flagrelease_hygon_qwen3:v1.0.0 \ /bin/bash
- 進入容器(如果上一步修改了容器名,這里要將flagos對 name 進行修改。
Plain Text docker exec -it flagos bash
- 啟動服務
Plain Text flagscale serve qwen32.安裝配置OpenClaw
安裝過程: 參見:https://github.com/openclaw/openclaw?spm=5176.28103460.0.0.696675514ZMILC , 通過源碼方式,安裝 OpenClaw。
Python git clone https://github.com/openclaw/openclaw.git cd openclawpnpm install pnpm ui:build # auto-installs UI deps on first run pnpm build pnpm openclaw onboard –install-daemon # Dev loop (auto-reload on TS changes) pnpm gateway:watch配置過程:
- 訪問鏈接以下鏈接:https://cloud.tencent.com/developer/article/2625144,文中有給出通用的”模型配置”文件格式,可以直接套用,套用后命令如下。
需要注意的是,配置本地模型時,廠商一定是加速推理工具如vllm。
SQL pnpm openclaw config set ‘models.providers.vllm_local’ –json ‘{ “baseUrl”: “http://1.15.51.106:9033/v1”, “apiKey”: “anykey”, #key不可為空,如果原來模型沒有配置key,任意填寫即可 “api”: “openai-completions”, “models”: [ { “id”: “Qwen3-4B-hygon-flagos”, “name”: “遠程模型” } ] }’
執行之后出現如下信息提示:![]()
啟用并設置為默認模型
Plain Text 合并配置模型 pnpm openclaw config set models.mode merge
Plain Text 切換為當前模式 pnpm openclaw models set vllm_local/Qwen3-4B-hygon-flagos
![]()
可以看到當前默認模型已經切換為 Qwen3-4B-hygon-flagos。
- 執行下面代碼,可以看到模型已經切換完成。
Plain Text pnpm openclaw configure
![]()
可以看到模型已經切換完成。
3、配置 channel 為QQ
參考文檔: https://cloud.tencent.com/developer/article/2626045,這部分需要替換為自己的ID和secret。配置完成后,進行以下操作:
- 啟動openclaw網關, 命令如下:
pnpm openclaw gateway
- 啟動成功后,您可以在QQ軟件中嘗試和已經打通OpenClaw的QQ機器人進行單獨聊天,或者在群里與QQ機器人進行對話。如果QQ機器人能夠以AI的方式對話,則說明您已經成功完成OpenClaw應用接入QQ機器人。

接下來您就可以開始進一步探索OpenClaw接入QQ機器人之后的更多使用場景。
趨勢展望
這次在 OpenClaw 連接QQ的場景中對 Qwen3-4B-hygon-flagos 進行了測試,發現Agent的能力邊界正在發生轉移。
關鍵信號:
?小模型開始進入Agent執行層
Qwen3-4B-hygon-flagos 已經可以在 OpenClaw 中穩定承擔指令理解、工具調用、本地文件操作和協作入口控制等任務。這意味著,小模型第一次從“對話組件”走進了Agent的執行中樞。
?真正的瓶頸不在模型,而在系統
無論 4B 還是更大的模型,在文檔寫入等能力上同樣受限,說明 Agent 的上限越來越多地由平臺權限、接口設計和工程抽象決定,而不是模型本身。
如果你要的是一個能在本地跑、能調工具、能接企業系統的 Agent 內核,
4B級模型,已經開始成為一個現實且合理的默認選項。
Less is More, FlagOS is the Key!
關于眾智FlagOS社區
眾智FlagOS是一款專為異構AI芯片打造的開源、統一系統軟件棧,支持 AI 模型一次開發即可無縫移植至各類硬件平臺,大幅降低遷移與適配成本。它包括大型算子庫、統一AI編譯器、并行訓推框架、統一通信庫等核心開源項目,致力于構建「模型-系統-芯片」三層貫通的開放技術生態,通過“一次開發跨芯遷移”釋放硬件計算潛力,打破不同芯片軟件棧之間生態隔離。
社區官網:https://flagos.io
GitHub地址:https://github.com/flagos-ai
GitCode地址:https://gitcode.com/flagos-ai
關于HAI
高性能應用服務(Hyper Application Inventor,HAI)是一款面向 AI 、科學計算的 GPU 應用服務產品,提供即插即用的澎湃算力與常見環境,助力中小企業及開發者快速部署 LLM。
而HAI社區是一款面向AI和科學計算等GPU環境的容器鏡像中心,提供豐富的官方與社區維護的開發資源。助力企業和開發者快速部署AIGC大模型、計算機視覺、自然語言處理、數據科學等容器,原生集成開發工具與組件。
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.