這是蒼何的第 493 篇原創!
大家好,我是蒼何。
OpenClaw,這個 GitHub 上 18 萬 Star 的怪物級開源項目,你們應該都聽過了吧?
![]()
飛書能接、釘釘能接、企業微信能接、QQ 能接、Discord 能接……
但偏偏最多人用的「微信個人號」,它不支持。
我翻遍了 GitHub、掘金、知乎,找到的方案要么是企業微信繞一圈,要么是用微信 Web 協議搞,動不動就封號。
說實話,這誰頂得住?
天天在微信上跟朋友聊天、在群里吹水,結果想接個 OpenClaw 都這么費勁?
麻了。
于是我決定自己干。
「爆肝 2 天,我把 OpenClaw 接入了微信個人號,并且已經開源了。」
![]()
地址:https://github.com/freestylefly/openclaw-wechat
我給他命名為蒼何的狗腿子,和普通好友沒什么區別,但他卻是個能真正幫你干事的好友。
當你隨便把一篇文章丟給他,OpenClaw 會幫你做總結。
![]()
并幫你存放于你的個人 Notion 知識庫中。
![]()
我現在看到好文章直接轉發給它,然后可以直接讓他去知識庫中幫我查找任何我想要的收藏。
![]()
說實話比收藏夾好用一萬倍。
我把這家伙拉進群聊,還能隨時@總結上下文,群聊利器啊。
![]()
然后我可以指揮 OpenClaw 自動搜集全網資訊,并直接匯總發我。
![]()
還可以進行日程提醒,比如讓它提醒我 2 分鐘后喝水。
![]()
我甚至還在我的 OpenClaw 中裝了 18 歲的 AI 女友 Clawra,她有獨立人格和人設,當我問她在干嘛時,她會甩一張自拍給我。
![]()
當然還有更多的場景待探索,但我發現,在微信上用 OpenClaw 顯得非常的絲滑,因為我每天真的離不開微信。
這篇文章主要分享我開發的歷程,代碼也上傳到了 GitHub,但由于時間有限以及防止技術被濫用,我做了一層代理處理,需要審核才可使用。
注意事項
建議先用小號測試,雖然 iPad 協議比 Web 協議穩定得多,但畢竟是第三方接入,謹慎為上
不要用來搞群發、營銷之類的騷操作,騰訊的風控不是吃素的
建議部署在有固定 IP 的服務器上,頻繁換 IP 容易觸發風控
整個系統架構如下:
![]()
全程我用的是 OpenRouter 上的神秘模型 Pony Alpha 配合 Claude Code,前幾天我也給大家分享了這個神秘模型。
![]()
今天也終于揭曉了謎底,確認這個神秘模型就是智譜的 GLM 5 模型。
昨晚我發現 GLM 5 也上線了 bigmodel,并直接切換,干了不少 token。
![]()
幾個 agent 垮垮狂干,直接就干限額了:
![]()
果斷再開 Max 套餐,可以說是大出血了:
![]()
關于 GLM 5,官方是這么說的,「在全球權威的 Artificial Analysis 榜單中,GLM-5 位居全球第四、開源第一」。我截了個圖:
![]()
從官方及各大媒體的報道來看,GLM 5 是面向復雜系統工程與長程Agent任務的開源基座模型。
這里我也會在本文的中間部分把我和 GLM 5 協作開發的過程給分享出來,看看這個模型在處理實際工程級項目中究竟能有幾斤幾兩。
先說說 OpenClaw 是啥
如果你還不知道 OpenClaw,簡單說一下。
它原名叫 Clawdbot,是一個奧地利開發者 Peter Steinberger 搞出來的開源 AI Agent 項目。
![]()
后來因為跟 Anthropic 的商標沖突,改名 Moltbot,又改名 OpenClaw。
名字換了三個,但絲毫不影響它火到離譜。
「3 周時間,GitHub Star 從 0 干到 18 萬+。」
這什么概念?React 花了 8 年才到 10 萬,Linux 花了 12 年,它 3 周就超了。
好家伙,這不是坐火箭,這是坐 SpaceX 星艦。
它的核心能力就一句話:「讓 AI 不只是回答你問題,而是真正替你干活。」
你跟它說「幫我查一下明天的天氣,然后發到群里」,它就真的會去查、然后發。
不是那種假裝理解你然后輸出一坨文字的「AI 助手」,是真的有手有腳能操作的 Agent。
它支持接入各種大模型,Claude、GPT、DeepSeek 都行,還支持多 Agent 協作,搞一個虛擬開發團隊都不在話下。
我之前也寫過幾篇關于OpenClaw 的文章,不了解的也可以先看看:
![]()
為啥微信這么難接?
講真的,這事不能怪 OpenClaw。
微信是出了名的「封閉生態」,個人號壓根沒有官方 Bot API。
你想搞自動化,要么走企業微信(需要公司認證),要么用第三方協議逆向(隨時封號)。
之前社區有一些方案,比如用 wechatbot-webhook 基于微信 Web 協議來搞,Docker 一鍵部署倒是方便。
但問題是:
「穩定性堪憂」,微信 Web 協議說封就封
「功能受限」,很多高級功能用不了
「安全風險」,你的微信賬號等于裸奔
我試了幾個,要么跑不起來,要么跑起來半天就掉線。
說白了,這些方案都是在微信的安全策略上「走鋼絲」。
我是怎么搞的
既然現有方案都不太行,那就自己擼一個。
我的思路是這樣的:
「不走微信 Web 協議,走 iPad 協議 + 消息中轉服務。」
核心架構分三層:
「消息接收層」:基于 iPad 協議穩定接收微信消息,比 Web 協議靠譜得多
「中轉網關層」:做消息格式轉換、會話管理、限流熔斷
「OpenClaw 對接層」:通過 Webhook 把消息推給 OpenClaw Gateway,再把 AI 回復轉發回微信
整個架構用 TypeScript 寫的,跟 OpenClaw 原生技術棧一致。
畫了個架構圖你們感受一下:
![]()
說起來簡單,但這畢竟是個系統工程——協議對接、消息隊列、網關路由、多模型調度,涉及的模塊還挺多的。
2 天能搞定,說實話,離不開一個關鍵幫手:「GLM-5」。
為什么用 GLM-5?
可能有人會問,市面上 Coding 模型那么多,為啥選它?
不瞞你說,一開始我也沒抱太大期望。主要是先跑的神秘模型 Pony Alpha。
但實際跑下來,對于有些場景還行。
這個項目不是那種「一句 Prompt 搓個網頁」的活兒。
消息中轉網關要處理并發、去重、限流,OpenClaw 對接層要搞 Webhook 協議適配和會話狀態管理,還有各種邊界情況要兜底。
這是正兒八經的「系統工程」,不是寫個前端頁面的事。
現在大模型圈子其實有個很明顯的趨勢:Opus 4.6、GPT Codex 5.3 這些頂級模型都在強調自己的 Agentic 能力,不再吹「一句話出活」了,而是卷誰能扛住「長任務、復雜系統開發」。
GLM-5 剛好也走的這條路。
我這次開發全程讓 GLM-5 跑 Agent 模式,把任務拆成多個子任務,讓它自己規劃、自己執行、自己調試。
![]()
遇到問題,他能夠自己修,找出對比項:
![]()
我的原始需求是要在 openclaw 中添加微信插件:
![]()
一開始的版本,我覺得不夠合理,我就讓它重構了一下,它能給出合理的架構設計:
![]()
我給的重構指令及 rest 重構的整體過程我也截了個圖:
![]()
大概花費了 25 分鐘,解決了重構的所有問題:
![]()
整個過程我基本就是在旁邊看著,偶爾給點方向性的反饋。
而且 GLM-5 還有一點讓我挺舒服的——它是開源的。
不過對于一些稍微深一些的 bug,GLM 5 也并非萬能的,這個時候我會選擇讓它切換到 GPT-5.3-codex 和 Claude 4.6來解決。
好了不多說了,接下來聊聊開發過程中踩的坑,這才是重頭戲。
踩坑實錄 坑一:消息去重
微信的消息推送機制很迷,同一條消息有時候會推兩三次。
如果不做去重,AI 就會回復兩三遍,對面以為你是復讀機。
我的解決方案是讓 GLM 搞了一個基于消息 ID + 時間窗口的去重緩存,用 LRU 策略自動淘汰過期記錄。
坑二:上下文管理
OpenClaw 的 Agent 是有記憶的,但微信的對話場景比較特殊。
群聊里一堆人說話,你不能把所有消息都當作是給 AI 的指令。
所以我做了一個「@觸發 + 私聊直連」的機制:
「私聊」:所有消息直接轉給 OpenClaw 處理
「群聊」:只有 @機器人 的消息才會觸發 AI 回復
這樣就不會出現 AI 在群里瘋狂刷屏的社死場面了。
坑三:回復速度
大模型的回復是有延遲的,特別是復雜問題可能要想好幾秒。
但微信那邊,對面看你一直不回,以為你已讀不回呢。
我加了一個「思考中...」的狀態提示,AI 在生成回復的時候先發一個提示,生成完了再替換成正式回復。
用戶體驗直接拉滿。
坑四:多模型切換
OpenClaw 支持多個大模型,但不同場景其實適合不同模型。
比如日常閑聊用 DeepSeek 就夠了,寫代碼分析問題上 Claude,省錢又高效。
我在中轉層做了一個簡單的路由策略,根據消息內容自動選擇最合適的模型。
能干啥?
接入之后,你的微信就變成了一個 AI 超級助手。
舉幾個我自己在用的場景:
「1. 智能群聊助手」
在技術群里 @機器人,直接問代碼問題,它會結合上下文給出解答。
再也不用忍受群里那些「百度一下」的回復了。
「2. 個人知識管家」
把文章、鏈接丟給它,它幫你總結歸納,還能存到你的知識庫里。
我現在看到好文章直接轉發給它,比收藏夾好用一萬倍。
「3. 日程提醒」
跟它說「明天下午 3 點提醒我開會」,到點它就會在微信上戳你。
比手機自帶的提醒好用,因為你一定會看微信。
「4. 自動回復」
設置好規則,一些常見問題它自動回復。
比如有人加你好友問「在嗎」,它直接回「在的,有什么事嗎?」
再也不用被「在嗎」兩個字煩死了。
怎么用?
項目已經開源,可以自己部署。
核心就三步:
「第一步:克隆項目」
git clone https://github.com/canghe/openclaw-wechat.gitcd openclaw-wechat
「第二步:配置環境變量」
出于安全考慮,這里的 apikey 是我代理服務做了一層,目前還在優化中。
# Set API Key (required)openclaw config set channels.wechat.apiKey "wc_live_xxxxxxxxxxxxxxxx"# Set proxy URL (required)openclaw config set channels.wechat.proxyUrl "http://your-proxy-server:3000"# Set webhook host (required for cloud deployment)openclaw config set channels.wechat.webhookHost "your-server-ip"# Enable the channelopenclaw config set channels.wechat.enabled true
「第三步:openclaw 服務中添加 openclaw-wechat」
openclaw plugins install @canghe/openclaw-wechat這里需要等下,還沒來的及上到插件市場去,后面會上,可以先本地代碼的方式安裝。
然后用微信掃碼登錄,完事。
整個過程 5 分鐘搞定,不需要公司認證,不需要企業微信,普通個人號直接用。
后續計劃
目前這個項目還在持續迭代,后面計劃加這些功能:
「語音消息支持」:目前只支持文字,后續會接入語音轉文字 + 文字轉語音
「圖片理解」:接入多模態模型,讓 AI 能看懂你發的圖片
「OpenClaw Skills 市場對接」:直接在微信里調用 OpenClaw 的 700+ 技能
「多賬號管理面板」:Web 端可視化管理多個微信號的接入
如果你有好的想法,歡迎來 GitHub 上提 Issue 或者 PR。
說實話,OpenClaw 這波開源 AI Agent 的浪潮,真的讓我看到了 AI 落地的另一種可能。
以前我們說 AI,總覺得是那種高高在上的東西,要么在實驗室里,要么在大公司的服務器上。
但現在,你自己部署一個 OpenClaw,接上微信,AI 就真的成了你口袋里的助手。
這種感覺,說不出的爽。
不過也要提醒一下,OpenClaw 的 Skills 生態最近爆出了一些安全問題,有超過 230 個惡意插件被上傳到了社區。
所以大家在用 OpenClaw 的時候,「一定要注意只安裝可信來源的 Skills」,別什么都往上裝。
另外,我看智譜也出了 AutoGLM 版本的 OpenClaw,
支持官網一鍵完成 OpenClaw 與飛書機器人的一體化配置,幫助用戶從數小時縮短到幾分鐘,極速部署 OpenClaw。
![]()
好了,項目地址我放在原文鏈接了,感興趣的直接去 GitHub 上 Star 一下。
「如果你也在用 OpenClaw,或者對微信接入有什么想法,評論區聊聊!」
點個「贊」和「在看」,讓更多人看到這個項目
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.