Kimi K2:本地運行指南【量化版(體積減少 80%)】
如何運行Kimi K2 這個龐然大物(API & 本地部署)
刷到Kimi員工在X上說——“我嗅到了一個偉大模型的到來”
評論區才發現是K2思考模型發布了,官方賬號倒是安靜
這次低調到只在官方API文檔中更新了模型名稱
> `kimi-k2-thinking`模型是具有通用 Agentic 能力和推理能力的思考模型,它擅長深度推理,并可通過多步工具調用,幫助解決各類難題。
- kimi-k2-thinking 模型上下文長度 256k,是具有通用 Agentic 能力和推理能力的思考模型,它擅長深度推理
- kimi-k2-thinking-turbo 模型上下文長度 256k,是 kimi-k2-thinking 模型的高速版,適用于需要深度推理和追求極致高速的場景
kimi-k2-thinking-turbo 輸出價格每百萬Token 58元
太晚了,沒時間細測,只拿了我經常使用的一個閱讀理解+svg代碼生成的例子,還算不錯,比Qwen3-Max還強,是國產模型中為數不多可以正確識別到四次背影并正確引用原文的。只是理解的不夠深刻,而且審美上,還差點意思。最后一張圖是Claude 3.7的水平。
今天白天在搞DeepSeek-COR和PaddleOCR-VL的本地部署,明天再詳細測試 kimi-k2-thinking
![]()
![]()
![]()
![]()
![]()
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.