![]()
![]()
![]()
ollama v0.19.0于2026年3月30日正式發布,作為本地大模型部署與運行的核心工具,本次更新聚焦用戶體驗優化、功能增強與底層問題修復,覆蓋應用交互、插件能力、API性能、模型兼容、MLX運行器、注意力機制等多個核心維度,同時包含26次提交、58個文件改動,全面提升ollama的穩定性、兼容性與實用性。
一、核心功能更新
1.應用體驗優化
ollama應用將不再錯誤顯示“模型已過時”提示,徹底解決此前版本中模型狀態判斷異常的問題,避免用戶被無效提示干擾,提升使用流暢度。2.Web搜索插件集成
ollama launch pi功能新增內置Web搜索插件,該插件直接使用ollama官方Web搜索能力,無需額外配置即可讓本地模型具備聯網搜索能力,拓展本地大模型的信息獲取邊界,支持實時檢索最新數據。3.Anthropic兼容API性能提升
優化使用Anthropic兼容API時的KV緩存命中率,減少重復計算與資源消耗,提升API調用的響應速度與效率,尤其在高頻、長對話場景下效果顯著。4.Qwen3.5模型工具調用修復
修復Qwen3.5模型工具調用解析問題,解決此前版本中工具調用內容被錯誤輸出在思考模塊的問題,確保工具調用邏輯清晰、結果準確,保障Qwen3.5模型的函數調用能力正常生效。5.MLX運行器增強
? MLX運行器在提示詞處理過程中會創建周期性快照,實現狀態的持續備份,避免處理中斷導致的進度丟失;
? 修復MLX運行器中KV緩存快照的內存泄漏問題,優化內存資源占用,提升長時間運行的穩定性;
? 優化MLX運行器的緩存驅逐與LRU跟蹤邏輯,提升緩存管理效率;
? 合并setStateRaw與setStateDetached為setState,簡化API調用邏輯,降低開發與使用復雜度。
6.模型兼容與機制修復
? 修復Grok模型的Flash Attention錯誤啟用問題,確保Grok模型在ollama中運行時,注意力機制配置符合模型特性,避免性能異常或兼容性問題;
? 解決qwen3-next:80b模型無法在ollama中加載的問題,完善對該大參數模型的支持,拓展ollama可運行的模型范圍。
? ggml模塊:強制關閉Grok模型的Flash Attention,從底層解決Grok模型注意力機制配置錯誤問題。
? MLX模塊:修復KV緩存快照內存泄漏,優化內存管理;
? MLX運行器:改進緩存驅逐與LRU跟蹤邏輯,提升緩存效率;
? MLX運行器:在預填充階段調度周期性快照,實現狀態自動備份;
? MLX運行器:合并setState相關接口,簡化調用邏輯;
? 文檔:更新VS Code相關文檔,完善開發工具集成說明;
? launch模塊:隱藏VS Code集成入口、Cline集成入口;
? launch/vscode模塊:優先使用已知VS Code路徑,而非PATH中的code命令,提升工具調用準確性。
? TUI模塊:更新聊天標題,優化交互界面展示;
? CI模塊:在Linux系統中包含MLX JIT頭文件,完善編譯依賴;
? launch模塊:對本地模型,當服務器上下文長度低于64k時發出警告,幫助用戶提前規避長文本處理問題;
? CI模塊:強化CUDA包含路徑處理,提升GPU環境兼容性;
? 模型解析器:修復Qwen3.5工具塊在思考塊中啟動時的關閉邏輯,解決工具調用解析異常;
? 解析器:優化Qwen3.5流式工具調用解析,并添加回歸測試,保障功能穩定性;
? 應用模塊:修復模型“過時”錯誤提示,優化用戶體驗;
? Anthropic模塊:修復因工具調用參數重排序導致的KV緩存復用降級問題,提升API性能;
? launch模塊:跳過MLX模型的上下文長度警告,并顯示模型名稱,優化提示邏輯;
? Anthropic模塊:修復內容塊中的空輸入問題,避免API調用異常;
? 服務器模塊:拉取模型時保留原始清單字節,保障模型完整性。
? MLX模塊:修復視覺能力與最低版本兼容問題,完善多模態支持;
? launch模塊:自動安裝pi并管理Web搜索生命周期,簡化插件使用流程;
? launch模塊:優化已添加模型的多選功能,提升操作便捷性;
? 回滾上下文長度警告變更,調整提示策略。
? 模型模塊:為qwen3-next添加對傳統ssm_in投影的兼容性,解決模型加載失敗問題;
? 命令模塊:在配置中設置OpenCode默認模型,優化模型調用默認配置。
代碼地址:bgithub.xyz/ollama/ollama
ollama v0.19.0版本從用戶體驗、功能拓展、底層性能、模型兼容四大方向發力,新增Web搜索插件拓展本地模型能力,修復多模型(Qwen3.5、Grok、qwen3-next:80b)的核心問題,優化MLX運行器與KV緩存機制,同時完善API、CI、工具集成等模塊的細節,全面提升ollama的穩定性、兼容性與易用性,為本地大模型開發者與用戶提供更優質的運行環境。
我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,發消息可獲得面試資料,讓AI助力您的未來發展。
特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.