大家好,我是袋鼠帝。
最近這幾天,我聽到好多朋友都在抱怨:OpenClaw 好是好用,就是太費 Token 了!
![]()
![]()
Claude Code 也是一樣的,用它來做 Vibe Coding 確實爽,但同樣非常燒token。然后,每次想切換個模型,還要改配置,重啟...
然后我現(xiàn)在其實是同時開了智譜、Kimi、minimax的coding plan,月花費將近1K了...
而且每次切換模型,我都要把API地址,apikey,模型名稱都切換一遍..
然后今天早上我打開微信,突然發(fā)現(xiàn):阿里云上新了 Coding Plan
![]()
我點進去一看,好家伙,首月最低才 7.9 塊錢!連買杯瑞幸咖啡都不止這個價。
![]()
最關鍵的是,它一口氣支持了自家除夕最新發(fā)布的Qwen-3.5、除夕前一個周Kimi發(fā)布的Kimi-K2.5,還有智譜的GLM-4.7。
雖然沒上最新的 GLM-5 有點可惜(畢竟剛開源,估計還在適配),但我真心希望后續(xù)能給加上。如果后續(xù)能再把 MiniMax-M2.5 也拉進來,那這套陣容就徹底無敵了。
不過話說回來,這幾個模型的能力就不用我再多強調(diào)了吧?絕對是目前國內(nèi)編程和 Agent 領域的第一梯隊。
除夕夜剛剛發(fā)布的 Qwen-3.5,在很多測試里的表現(xiàn)簡直強得離譜(詳情可以看我的好朋友 @冷逸 的)。
Kimi-K2.5 也是除夕前一周剛剛升級的多模態(tài)模型,推理和長文本、編程能力大家有目共睹(詳情見我之前的那篇測評)。
Kimi-K2.5 袋鼠帝,公眾號:袋鼠帝AI客棧
至于 GLM-4.7,雖然在 Agent 和復雜系統(tǒng)工程能力上比GLM-5稍弱,但4.7 有個巨大的優(yōu)勢:快!
GLM-5主要是做復雜任務的,雖然任務質(zhì)量高了,但過程挺慢的,而 4.7 的響應速度非常適合接入 OpenClaw(小龍蝦)這種個人助理應用。
畢竟你找個助理幫你干活,肯定是希望他秒回,不然你體感上總會覺得他是不是睡著了。
阿里云這個 Coding Plan 最大的好處,就是一次購買,全家桶帶走。
一個套餐,這幾家的頂尖模型你隨便切換使用。而且切換起來還挺絲滑的(后面我會給大家演示)。
所以我第一時間就打開了阿里云百煉控制臺->訂閱套餐
https://bailian.console.aliyun.com/cn-beijing/?tab=model#/efm/coding_plan
![]()
本來我想買個 7.9 元的 Lite 基礎套餐試試水,結(jié)果在付款頁面,我發(fā)現(xiàn)不知道啥時候賬戶里多出來個 10 塊錢的優(yōu)惠券?
于是我果斷選了 Pro 套餐。
![]()
![]()
選完之后,根據(jù)引導,會跳轉(zhuǎn)到配置頁面。
![]()
點擊生成 API Key,復制并保存好這串專屬密鑰。
注意,這個 Key 的格式是 sk-sp- 開頭的,千萬別和百煉通用的 Key 搞混了。
然后,我點開了右上角的「使用指南」。
這里真的要給阿里云的產(chǎn)品經(jīng)理點個贊。
非常貼心的同時提供了 OpenAI 兼容協(xié)議 和 Anthropic 兼容協(xié)議 的兩套 API 地址。
![]()
OpenAI 兼容地址:
https://coding.dashscope.aliyuncs.com/v1
Anthropic 兼容地址:
https://coding.dashscope.aliyuncs.com/apps/anthropic
這意味著你可以拿著這個API接口,無縫接入市面上幾乎所有主流的 AI 編程工具和 Agent 框架。
![]()
另外,阿里云的coding plan不按 Token 計費,而是按請求次數(shù)
emmm,這下應該不怕燒token了。
大家都知道,像 OpenClaw、Claude Code 這種 Agent 工具,在執(zhí)行一個復雜任務時,會在后臺進行大量的多輪規(guī)劃、工具調(diào)用、自我反思。
這個過程中產(chǎn)生的 Token 消耗量是指數(shù)級增長的。
有數(shù)據(jù)顯示,單個 Agent 的算力消耗是傳統(tǒng) Chatbot 的 100 到 1000 倍。
以前按 Token 算錢,你看著它在后臺瘋狂思考,心就在滴血。
如果按次收費,那終于可以心安理得的把復雜的任務交給它,自己去喝杯茶了。
![]()
當然,作為 API 來使用,除了量大管飽,最重要的還是穩(wěn)定和速度。
阿里云作為亞太第一云廠商,算力底座這塊絕對是讓人放心的。
下面,我就給大家實操演示一下,怎么把它接入到我平時最常用的兩個工具(Claude Code和openclaw)。以及實用情況如何。
接入 Claude Code
接入過程非常簡單,
把下面的配置寫到Claude Code的setting.json配置文件中
} ![]()
對了,支持的模型名稱有:
qwen3.5-plus、qwen3-max-2026-01-23、qwen3-coder-next、qwen3-coder-plus、glm-4.7、kimi-k2.5
然后,你可以隨意在多個模型之間切換,完全不需要改配置。
只需要在claude Code的對話框中執(zhí)行
/model 模型名稱 ![]()
正好,我最近在開發(fā)我的 營銷短視頻一鍵生成平臺 ,遇到了一個 Bug。
Prompt:我希望在 極速創(chuàng)作-腳本庫選擇 頁面,如果我在自定義編輯框里輸入了文案,即使我沒有點擊 保存到腳本庫 ,這段文案也能直接被引入到視頻生成的 Prompt 中。而現(xiàn)在的邏輯是,系統(tǒng)默認還會去讀取原來選中的那個老文案。另外,如果我點擊了 保存 ,系統(tǒng)只彈了個保存成功的提示,但數(shù)據(jù)庫里根本沒存進去。請幫我修復一下
我初步試了一下,這個回復速度真很快了(不知道是不是今天剛上,還沒有多少人用的原因)
而且非常穩(wěn)定,我之前用一些coding plan,會出現(xiàn)那種卡死的情況,就是半天都沒反應,然后突然又莫名其妙不執(zhí)行任務,這個問題在阿里云這次的coding plan上沒有出現(xiàn)。
接入 OpenClaw
把下面的配置項替換一下,云上部署的位置在/root/.openclaw/openclaw.json
主要就關注openclaw.json里面的models和agents配置,注意把apikey填上
}修改完配置,保存
執(zhí)行如下指令,重啟openclaw生效:
openclaw gateway restart這次我把模型切到了阿里最新的qwen3.5-plus。
![]()
大家都知道這幾天一直在傳 DeepSeek V4 可能在大年初一發(fā)布。
我實在是不想自己一直去刷DeepSeek的消息,于是我給 OpenClaw 下了個任務。
設置好之后,我就把它掛在后臺了。
![]()
按次計費就是這點好,哪怕它每 5 分鐘去調(diào)用一次模型分析網(wǎng)頁內(nèi)容,我也不心疼。
回到控制臺看了一下使用量,只使用了21次,如果我們想要把價值拉滿,就少發(fā):“你好”,“在嗎”,盡量每次都給復雜任務,讓它多跑token,這個羊毛就薅的更值了~
不過需要注意一下,一次復雜問題,可能會觸發(fā)10-20次模型調(diào)用
![]()
不得不說,阿里云這波 Coding Plan 真的很有誠意。
對比了一下市面上其他幾家的訂閱服務,阿里云在價格上的優(yōu)勢明顯。
而且,模型選擇多。加上阿里云充足的算力保障,服務極其穩(wěn)定。
我之前在深圳做項目管理的時候,待過的幾家公司基本都用的阿里云服務器,所以對他們的底層基建還是很有信心的。
如果你只是平時寫點小腳本,或者偶爾用 AI 輔助一下工作,選擇Lite基礎套餐就足夠了。每個月 18000 次請求,絕對夠你折騰。
但如果你像我一樣,是個開發(fā)者,或者重度依賴 Agent 來處理復雜的自動化工作流,那我強烈建議你上 Pro 高級套餐 。每個月 90000 次請求,基本上等于實現(xiàn)了算力自由。
趁著現(xiàn)在有首月 2 折的優(yōu)惠,感興趣的朋友趕緊去薅這波羊毛吧~
如果你覺得這篇文章對你有幫助,記得點贊、收藏,分享給身邊有需要的朋友。
讓我們一起,在新的一年里,效率起飛,馬到成功!
我是袋鼠帝,一個致力于幫你把AI變成生產(chǎn)力的博主。我們下期見。
能看到這里的都是鳳毛麟角的存在!
如果覺得不錯,隨手點個贊、在看、轉(zhuǎn)發(fā)三連吧~
如果想第一時間收到推送,也可以給我個星標?
謝謝你耐心看完我的文章~
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.