![]()
![]()
![]()
2026年1月25日,Ollama 發(fā)布了最新版本v0.15.1。這一版本在性能優(yōu)化、工具集成、跨平臺(tái)兼容性和文檔完善方面帶來(lái)了顯著提升,標(biāo)志著該項(xiàng)目在本地大模型運(yùn)行環(huán)境上的又一次重要進(jìn)步。本文將帶你全面了解此版本的全部更新點(diǎn)。
一、GLM-4.7-Flash 模型優(yōu)化
本次更新對(duì)GLM-4.7-Flash模型進(jìn)行了大幅性能優(yōu)化與正確性修復(fù),解決了部分重復(fù)回答與工具調(diào)用質(zhì)量問(wèn)題。同時(shí),在量化策略上進(jìn)行了改進(jìn):
? 量化更多張量為
q8_0格式。? 避免了雙重 BOS Token 的問(wèn)題。
? 修復(fù)了注意力機(jī)制中
scale計(jì)算的錯(cuò)誤,提升注意力計(jì)算精度和生成穩(wěn)定性。
此外,server/quantization.go中針對(duì)多頭注意力(MLA)相關(guān)權(quán)重進(jìn)行了精度提升,確保模型在高壓縮量化下仍能保持高質(zhì)量輸出。
二、跨平臺(tái)性能改進(jìn)
Ollama v0.15.1 修復(fù)了macOS與arm64 Linux上的性能問(wèn)題,并在各平臺(tái)構(gòu)建腳本中增加了高效優(yōu)化編譯參數(shù):
?CGO 優(yōu)化標(biāo)志:增加
-O3編譯優(yōu)化。?macOS 構(gòu)建腳本(scripts/build_darwin.sh):
啟用-O3優(yōu)化并保持-mmacosx-version-min限定版本。?Windows 構(gòu)建腳本(scripts/build_windows.ps1):
若沒(méi)有手動(dòng)設(shè)置,會(huì)自動(dòng)為CGO_CFLAGS與CGO_CXXFLAGS添加-O3優(yōu)化。
這些改動(dòng)顯著提升了編譯后可執(zhí)行文件的運(yùn)行效率。
三、工具集成:Claude 與 OpenCode 全新增強(qiáng)
本次更新最大亮點(diǎn)之一,是對(duì)Claude Code與全新集成項(xiàng)目OpenCode的支持完善。
1. Claude Code 一鍵啟動(dòng)優(yōu)化
? 新增
ollama launch claude命令的智能路徑檢測(cè)機(jī)制:
可在系統(tǒng) PATH 未找到claude時(shí)自動(dòng)回退查找~/.claude/local/claude(Windows 系統(tǒng)為claude.exe)。? 若仍無(wú)法找到,將提示用戶從官方站點(diǎn)下載安裝。
? 測(cè)試文件
claude_test.go覆蓋了 PATH 檢測(cè)、fallback 查找以及異常路徑三種場(chǎng)景,確保健壯性。
新版本引入了OpenCode這一開(kāi)源終端 AI 編碼助手,并提供完整的 Ollama 集成方案。
命令行支持:
ollama launch opencode或僅配置不啟動(dòng):
ollama launch opencode --config配置文件(~/.config/opencode/opencode.json)示例中默認(rèn)支持添加本地與云端模型:
? 本地模型示例:
qwen3-coder? 云端模型示例:
glm-4.7:cloud
對(duì)應(yīng)邏輯實(shí)現(xiàn)涵蓋:
? 避免重復(fù)條目;
? 保留用戶自定義字段;
? 自動(dòng)將舊
[Ollama]后綴條目遷移為_launch標(biāo)記;? 精確區(qū)分由 Ollama 管理的模型條目。
文檔提供了詳細(xì) CLI 使用說(shuō)明:
ollama launch支持的集成:
? OpenCode – 開(kāi)源代碼助手
? Claude Code – Anthropic 編碼智能體
? Codex – OpenAI 編碼助手
? Droid – Factory AI 編碼代理
可快速使用指定模型和配置項(xiàng):
ollama launch claude --model qwen3-coder
ollama launch droid --config五、文檔體系大躍進(jìn)文檔部分更新極為豐富,幫助開(kāi)發(fā)者快速上手并接入主流開(kāi)發(fā)工具,主要包括以下幾個(gè)方面:
1. Anthropic API 兼容性更新
? 明確推薦模型:
glm-4.7,minimax-m2.1,qwen3-coder。? 環(huán)境變量統(tǒng)一使用:
export ANTHROPIC_AUTH_TOKEN=ollama
export ANTHROPIC_API_KEY=ollama
export ANTHROPIC_BASE_URL=http://localhost:11434? 新增對(duì)
ollama launch claude自動(dòng)配置的說(shuō)明。
上下文窗口默認(rèn)推薦調(diào)整至64000 tokens,更適用于 web 搜索、AI agents 和大型代碼模型。
設(shè)置示例:
OLLAMA_CONTEXT_LENGTH=64000 ollama serve3. Quickstart 新增編程模型說(shuō)明? 推薦使用
glm-4.7-flash作為本地編程模型(23GB 顯存需求)。? 支持云模型
glm-4.7:cloud。? 新增 “快速接入編程助手” 分節(jié),引導(dǎo)使用
ollama launch快速集成多款工具。
?
README.md替換為更受歡迎的 Ruby 客戶端鏈接。?
Dockerfile和app/README.md更新增加-O3優(yōu)化參數(shù)。? 修復(fù)啟動(dòng)時(shí)Claude 檢測(cè)失敗及OpenCode 配置誤更新問(wèn)題。
代碼地址:github.com/ollama/ollama
Ollama v0.15.1 是一次全方位的優(yōu)化版本,重點(diǎn)圍繞以下核心展開(kāi):
?性能與精度升級(jí):GLM-4.7-Flash 模型深度優(yōu)化。
?跨平臺(tái)支持增強(qiáng):macOS 與 Linux arm64 性能修復(fù),構(gòu)建優(yōu)化全面升級(jí)。
?生態(tài)集成擴(kuò)展:新增 OpenCode 一鍵集成,完善 Claude 啟動(dòng)邏輯。
?開(kāi)發(fā)體驗(yàn)提升:CLI 命令增強(qiáng)與文檔體系全面進(jìn)化。
這次更新不僅讓 Ollama 在模型執(zhí)行效率上更進(jìn)一步,也讓其在 AI 編程助手生態(tài)中更具連接性與易用性。
總結(jié)
Ollama v0.15.1 不只是一次修復(fù)版本,而是一場(chǎng)性能、生態(tài)與開(kāi)發(fā)體驗(yàn)的綜合升級(jí)。從模型底層優(yōu)化到工具鏈集成,從跨平臺(tái)編譯加速到文檔統(tǒng)一更新,這次迭代讓 Ollama 離“本地通用 AI 工作平臺(tái)”的愿景更近了一步。
我們相信人工智能為普通人提供了一種“增強(qiáng)工具”,并致力于分享全方位的AI知識(shí)。在這里,您可以找到最新的AI科普文章、工具評(píng)測(cè)、提升效率的秘籍以及行業(yè)洞察。 歡迎關(guān)注“福大大架構(gòu)師每日一題”,發(fā)消息可獲得面試資料,讓AI助力您的未來(lái)發(fā)展。
特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺(tái)“網(wǎng)易號(hào)”用戶上傳并發(fā)布,本平臺(tái)僅提供信息存儲(chǔ)服務(wù)。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.