大家好,我是袋鼠帝。
我發(fā)現(xiàn)智譜今年下半年是真滴猛。
從7月份那個(gè)超強(qiáng)的10B視覺小模型GLM-4.1V-Thinking,再到后來的GLM-4.5V,以及10月編程、Agent領(lǐng)域的GLM-4.6,每一款都打在了我的心巴上。
本來以為到了年底,大家都在忙著做年終總結(jié),沒什么新東西了。
沒想到,智譜反手又卷起來了..
![]()
剛剛,智譜開源了他們最強(qiáng)的視覺模型:GLM-4.6V
讓我興奮的是,這次一口氣開源了兩個(gè)尺寸:一個(gè)是106B的GLM-4.6V,另一個(gè)是9B的GLM-4.6V-Flash(消費(fèi)級(jí)顯卡就能本地部署)。
在同參數(shù)量級(jí)下,多模態(tài)交互、邏輯推理、長(zhǎng)上下文能力都取得了SOTA(State Of The Art,目前最強(qiáng))。
太卷了,貌似現(xiàn)在不是SOTA都不好意思發(fā)布..
![]()
GLM-4.6V支持128k上下文窗口,可以一次性處理約150頁P(yáng)DF、200頁P(yáng)PT、近一小時(shí)的關(guān)鍵幀序列。
不僅支持多模態(tài)輸入,還可以多模態(tài)輸出(圖文并茂)
除了視覺能力強(qiáng),還有工具調(diào)用能力,在z.ai集成了四種工具
![]()
一圖勝千言(來自朋友:@甲木,真好用)
![]()
體驗(yàn)下來,我的感覺是:如果你想在本地玩視覺模型,這就是目前的版本答案。
9B的GLM-4.6V-Flash,意味著你不需要那種動(dòng)輒幾十萬的專業(yè)GPU,哪怕是你家里的游戲本,或者是公司配的消費(fèi)級(jí)顯卡,都能隨便跑起來。
整體表現(xiàn)超過Qwen3-VL-8B
這對(duì)于很多注重?cái)?shù)據(jù)隱私,或者需要在邊緣設(shè)備上部署AI的企業(yè)來說,還是比較香的。
我前段時(shí)間去杭州給一家國(guó)企做培訓(xùn),參觀了他們的生產(chǎn)車間。在那兒,我看到了一個(gè)特別接地氣的AI落地場(chǎng)景:
他們?cè)诋a(chǎn)品流水線的末端,裝了個(gè)攝像頭和傳感器。
每當(dāng)包裝好的紙箱傳送過來,攝像頭就會(huì)咔嚓拍一張,然后傳給旁邊的一臺(tái)普通電腦。電腦里跑著一個(gè)視覺模型,專門負(fù)責(zé)檢查這個(gè)紙箱有沒有破損,膠帶封沒封好。
大概是下面這種場(chǎng)景(網(wǎng)圖)
![]()
當(dāng)時(shí)他們用的是阿里的一個(gè)小模型。我問了效果,負(fù)責(zé)人表示,雖然能用,但誤判率還是不低。一些好好的箱子,也被AI判成了破損,導(dǎo)致工人還得去復(fù)核,挺折騰的。
現(xiàn)在就可以換成GLM-4.6V-Flash試試。同參數(shù)量下的SOTA,意味著在同樣的硬件條件下,它的性能會(huì)更好,準(zhǔn)確度也會(huì)提升。
106B的GLM-4.6V,說大不大,說小也不小。它不像DeepSeek R1那種671B的巨無霸,除了大廠,沒幾個(gè)企業(yè)能私有化部署得起。106B,屬于那種努努力,夠一夠,還是能玩得起的。
如果你對(duì)性能有要求,又必須把數(shù)據(jù)掌握在自己手里,那這個(gè)106B的版本,是一個(gè)現(xiàn)階段完美的平衡點(diǎn)。
上次我在成都遇到OneOneTalk的彭總,他就在用一臺(tái)2萬多的華碩本,本地跑了一個(gè)120B的開源模型:gpt?oss?120b
就是下面這臺(tái)性能猛獸
![]()
當(dāng)然,如果你不在乎數(shù)據(jù)上云,直接調(diào)智譜的API,速度和體驗(yàn)會(huì)更好。
目前GLM-4.6V可以在z.ai上使用,也能以MCP的形式接入Agent使用(做本地Agent的眼睛)
還能接入Claude Code當(dāng)作基模使用。
比如我接入Claude Code之后,讓它執(zhí)行了復(fù)雜的多平臺(tái)價(jià)格對(duì)比,條件篩選商品的任務(wù)。
完成得很好:
GLM-4.6V開源地址匯總,方便大家直達(dá):
GitHub:
https://github.com/zai-org/GLM-V
Hugging Face:
https://huggingface.co/collections/zai-org/glm-46v
魔搭社區(qū):
https://modelscope.cn/collections/GLM-46V-37fabc27818446
我也第一時(shí)間在z.ai上,測(cè)試了GLM-4.6V:
之前一直有個(gè)難題,就是在那種大合照里,識(shí)別出某個(gè)人的位置。我試過很多模型,甚至包括Gemini 3,效果都不咋地。
![]()
我明明在第一排,從左往右數(shù)的第三個(gè)。
我同樣把上次昆明Trae活動(dòng)的大合照,加上一張我的自拍照,一起扔給了GLM-4.6V。
![]()
結(jié)果,GLM-4.6V居然準(zhǔn)確的找到了我!這還讓我蠻驚訝的。
這對(duì)于以后做智能相冊(cè)管理,或者安防監(jiān)控領(lǐng)域來說,太有用了。
z.ai里面還有一個(gè)Image Research功能,對(duì)我來說挺實(shí)用的。
我寫公眾號(hào)的時(shí)候,經(jīng)常需要找各種配圖、或者封面圖。以前我都是去Google各種搜圖,有時(shí)候搜出來的圖很多都不是我想要的。
這次我讓它幫我搜幾張關(guān)于GEO(Generative Engine Optimization)生成式引擎優(yōu)化的圖片。
![]()
它搜出來的圖,非常精準(zhǔn),質(zhì)量高。
其中一張,正好就是我上一篇GEO的文章用到的封面圖。
以后我的封面圖工作流又要升級(jí)了(增加一個(gè)環(huán)節(jié))。
用NanoBanana Pro生成創(chuàng)意圖的同時(shí),用GLM-4.6V搜圖,最后我只負(fù)責(zé)選。
說到搜圖,這次的GLM-4.6V還能直接產(chǎn)出圖文并茂的文章
這得益于它的工具調(diào)用能力
比如我讓它生成北京旅游的推文
解讀GEO的PDF論文(論文PDF中的圖片也會(huì)被它插入到正確的位置)
![]()
上次不是寫了一篇飛書多維表格的教程嘛,在評(píng)論區(qū)看到,還是有一些朋友不清楚怎么調(diào)用的NanoBanana Pro API
我給大家演示一下, 你只需要把不懂的部分截圖,丟給GLM-4.6V,它就能幫你把散落在5張圖的API請(qǐng)求,按照想要的形式組裝起來了。
![]()
![]()
然后我還把一直貼著我車頭停車(可能只差0.5cm就碰到了)的紅車丟給了它..
![]()
![]()
有高手能評(píng)論區(qū)教一下怎么才能停成這樣嗎??我每次離別人車還有30cm就不敢繼續(xù)靠近了..
除了黑車品牌沒有猜對(duì),其他都對(duì)了,挺強(qiáng)的。
上次車停在車位被剮蹭了,去調(diào)監(jiān)控,花了幾個(gè)小時(shí)終于把逃逸者找到了..
我把最后的維修單丟給GLM-4.6V識(shí)別
![]()
![]()
經(jīng)過我的逐字檢查,準(zhǔn)確率非常高,大概是99.9%
它還能識(shí)別影帝的情緒~
渣渣輝封神片段:你知道我這五年怎么過的嗎?
![]()
劇情、情緒的變化都識(shí)別的相當(dāng)nice。而且非常細(xì)節(jié),角色濕潤(rùn)的眼眶都識(shí)別到了。
除了在z.ai使用,GLM-4.6V還可以接入Claude Code
也可以把GLM-4.6V通過MCP的方式,接入Claude Code。
接入Claude Code,可以參考官方文檔:
https://docs.bigmodel.cn/cn/guide/develop/claude
或者直接修改Claude的settings.json配置文件:
}配置好之后,重啟Claude,你就擁有了一個(gè)有手有眼的本地Agent啦~
既然有手有眼了,那就讓它干點(diǎn)實(shí)事兒。
我給這個(gè)本地Agent布置了一個(gè)較復(fù)雜的任務(wù):使用playwright MCP,通過瀏覽器查找,進(jìn)行產(chǎn)品的全網(wǎng)比價(jià),提示詞如下:
Prompt:全程使用playwright MCP工具。先在淘寶上找一款半入耳式藍(lán)牙耳機(jī),價(jià)格在500-1000元之間。找到銷量第一的那款。然后,拿著這款耳機(jī)的型號(hào),去唯品會(huì)和京東比價(jià),找到最便宜的那個(gè)平臺(tái),并把它加到我的購(gòu)物車?yán)铩?/code>這個(gè)任務(wù),涉及到了多平臺(tái)的網(wǎng)頁瀏覽、視覺識(shí)別(看價(jià)格、看型號(hào))、邏輯判斷(比大小)和操作執(zhí)行,對(duì)于現(xiàn)階段的所有視覺大模型來說,都是一個(gè)挑戰(zhàn)。
GLM-4.6V負(fù)責(zé)看網(wǎng)頁信息,Claude Code負(fù)責(zé)任務(wù)的調(diào)度。兩者配合,居然真的把這個(gè)復(fù)雜的流程給跑通了。
美中不足的是漏掉了篩選價(jià)格區(qū)間的操作,但其余的任務(wù)幾乎完美實(shí)現(xiàn)。
在淘寶找銷量第一的半入耳式藍(lán)牙耳機(jī),以及跟唯品會(huì)、京東同款耳機(jī)比價(jià),最后把價(jià)格最劃算的商品都加入了購(gòu)物車
![]()
![]()
我覺得雖然GLM-4.6V可以寫代碼,但是它的代碼能力還是會(huì)比GLM-4.6差一些
所以我決定讓它在Claude Code里面做GLM-4.6的眼睛
也就是作為MCP-Server使用
claude mcp add -s user zai-mcp-server --env Z_AI_API_KEY=你的智譜apikey -- npx -y "@z_ai/mcp-server"在settings.json里面把模型換回glm-4.6即可
既然有了眼睛,那復(fù)刻網(wǎng)頁就不用我費(fèi)勁去描述了。
Prompt:使用zai-mcp-server分析當(dāng)前目錄下的視頻,分析視頻中的網(wǎng)站的頁面、交互、動(dòng)效,然后1:1復(fù)刻視頻中的網(wǎng)站原網(wǎng)站效果
復(fù)刻后的效果
GLM-4.6V負(fù)責(zé)識(shí)別視頻,GLM-4.6負(fù)責(zé)生成高質(zhì)量的前端代碼。
網(wǎng)頁復(fù)刻得還不錯(cuò),至少這個(gè)卡片飛來飛去的效果有了,整體交互和動(dòng)效都有原視頻的影子。要想一次性百分百還原是很難的,畢竟原視頻的動(dòng)效太棒了。
GLM-4.6V雖然在極致的視覺能力上,它可能還略遜于Gemini 3這種頂級(jí)模型。但別忘了,它只有106B。
對(duì)于想要私有化部署的企業(yè)來說,這是一個(gè)夠一夠就能得著的高性價(jià)比選項(xiàng)。
而對(duì)于個(gè)人開發(fā)者,9B的Flash版本夠我們?cè)诒镜孛赓M(fèi)使用了。
不過,我心里也有個(gè)小疑問:為什么智譜不直接把視覺能力融合進(jìn)GLM-4.6里,要分拆成兩個(gè)模型呢?有沒有懂的朋友在評(píng)論區(qū)給我科普一下?
我猜可能是為了更靈活的部署和更低的推理成本?
順便說一下,行業(yè)+AI,才能真正釋放AI的生產(chǎn)力。
懂業(yè)務(wù)的朋友,真的建議多學(xué)學(xué)怎么用好這些AI模型。
當(dāng)你能把業(yè)務(wù)痛點(diǎn)和模型能力對(duì)接上的那一刻,效率的提升,絕對(duì)是指數(shù)級(jí)的。
補(bǔ)充:GLM-4.6和GLM-4.6V都在Coding Plan的使用范圍內(nèi)
能看到這里的都是鳳毛麟角的存在!
如果覺得不錯(cuò),隨手點(diǎn)個(gè)贊、在看、轉(zhuǎn)發(fā)三連吧~
如果想第一時(shí)間收到推送,也可以給我個(gè)星標(biāo)?
謝謝你耐心看完我的文章~
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.