大家好,我是 Ai 學習的老章
快手編程大模型 KAT-Dev-72B-Exp 開源了,在 SWE-Bench Verified 基準測試中的得分74.6,開源模型首位。
其他幾個開源模型得分是:Qwen3-Coder(約 70%)、GLM-4.6(約 70%)、DeepSeek V3.1(約 67%)、Kimi K2(約 67%),能在阿里通義、智譜 AI、DeepSeek 和 Moonshot 的"圍剿"下占領榜首,厲害!
本文就簡單介紹 KAT-Dev-72B-Exp 并本地部署后簡單測試性能及水平
![]()
這個分數比它的閉源旗艦模型 KAT-Coder模型還要高
![]()
KAT-Dev
KAT-Dev-72B專為軟件工程任務設計,多階段訓練優化而成,包括中期訓練階段、監督微調 (SFT) 與強化微調 (RFT) 階段,以及大規模智能體強化學習 (RL) 階段。
![]()
官方放出了三個實例,不確定是 32B 還是 Coder 實現的
星空
![]()
水果忍者

代碼重構
![]()
它支持與 Claude Code 配合使用 本地部署
模型文件一共 145GB(之前 32B 是 65GB)
![]()
下載模型就不說了,之前多次提到,用國內鏡像源 modelscope 下載的
模型部署,推理引擎使用的是 vLLM,版本 0.10.2
腳本如下,硬件條件是 H200,2 張卡開跑,2x141 GB 顯存![]()
權重占用 67GB,KV-Cache 55GB,峰值激活 1.34GB,非 torch 內存 1.38GB
引擎初始化耗時 51 秒,基于 40K 的 max-model-len,引擎支持 8.8 左右的并發
顯存利用--gpu-memory-utilization 默認 0.9 的樣子?實際顯存占用每卡 126GB
![]()
測了一下性能,總的平均 token 生產速度 1408 t/s
并發 50 情況下平均 TPS35,很不錯了
它是沒有思考的,實際使用速度飛起
![]()
老規矩,測了一下用它生成 svg 代碼,做人體器官分布圖
![]()
效果非常好,比智譜的 GLM-4.5-Air 還要好
![]()
這個體量可以做到這種程度,屬實牛逼
如果后面再出 FP8 或更低 bit 的量化版,把預算壓到單卡以內,那可就太香了
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.