<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      ollama v0.18.2 發布!OpenClaw 安裝優化、Claude 加速、MLX 量化全面升級

      0
      分享至




      前言

      2026年3月19日,Ollama 正式推出 v0.18.2 最新版本,本次更新聚焦于本地運行效率、依賴檢查、模型適配、插件注冊、會話管理、界面兼容、云端代理流式處理以及 MLX 推理架構等多個核心模塊,全面修復了歷史版本中的多項問題,同時對底層推理、模型加載、工具集成邏輯進行深度重構,極大提升了 OpenClaw、Claude Code、Ollama 本地模型、云端模型的使用穩定性與運行速度。

      本文將基于官方發布的完整更新日志、代碼提交、文件改動、測試用例變更,完整、細致、無遺漏地解讀 ollama v0.18.2 所有更新內容,幫助開發者快速理解新版本特性、適配改動、規避兼容問題,高效落地本地大模型部署與應用。

      一、ollama v0.18.2 版本整體概況

      本次 v0.18.2 版本于 2026年3月19日正式發布,整體改動包含:

      • ? 10 次代碼提交

      • ? 39 個文件被修改

      • ? 5 位貢獻者參與開發

      • ? 總計 2278 行代碼新增,404 行代碼刪除

      從提交時間可以看出,本次版本開發集中在 3 月 17 日–3 月 19 日,屬于密集迭代、快速修復的版本,核心解決了 OpenClaw 依賴缺失、Claude Code 本地運行緩存失效、Ollama 啟動指定模型不生效、聯網搜索插件注冊異常、無界面 Linux 系統登錄異常、MLX 模型推理、量化、顯存管理等關鍵問題。

      下面按照功能模塊,完整拆解所有更新。

      二、OpenClaw 相關全面優化

      OpenClaw 作為 Ollama 集成的重要工具,在 v0.18.2 中得到了全方位修復與完善,覆蓋依賴檢查、命令行參數、模型加載、聯網搜索插件、會話模型覆蓋等多個環節。

      2.1 安裝前增加 npm 與 git 依賴檢查

      在舊版本中,用戶安裝 OpenClaw 時,只會檢查 npm 是否存在,如果缺少 git 依然會導致安裝失敗,且報錯信息不清晰,用戶難以快速定位缺失的依賴。

      ollama v0.18.2 對ensureOpenClawInstalled函數進行重構:

      • ? 安裝 OpenClaw 前,同時檢查 npm 和 git 是否安裝

      • ? 任意一個依賴缺失,都會直接拋出明確的錯誤提示

      • ? 錯誤信息會列出缺失的工具,并附帶官方下載地址

      • ? 統一錯誤提示為:required dependencies are missing

      對應的代碼改動:

      • ? 移除僅檢查 npm 的邏輯,新增npmErrgitErr分別判斷

      • ? 使用數組收集缺失依賴,拼接成友好提示

      • ? 測試用例同步修改,將判斷npm was not found改為判斷required dependencies are missing

      這一改動徹底解決了新手部署 OpenClaw 時,因缺少 git 導致安裝失敗、無從排查的問題,降低了使用門檻。

      2.2 修復 ollama launch openclaw --model 命令支持

      舊版本存在命令兼容問題,無法正確支持:

      ollama launch openclaw --model 
      <模型名稱>

      在 v0.18.2 中,官方修復了該命令解析邏輯,能夠正確識別--model參數,用戶可以直接通過命令行指定 OpenClaw 使用的模型,無需手動進入配置修改,大幅提升命令行使用效率。

      2.3 正確注冊 Ollama websearch 擴展包

      本次更新最重要的功能之一,就是完整實現 OpenClaw 聯網搜索插件的自動注冊與配置持久化

      舊版本中,websearch 插件雖然可以啟用,但存在以下問題:

      • ? 插件不會被寫入信任列表,網關會持續提示未追蹤插件

      • ? 插件安裝來源、安裝路徑不會被記錄

      • ? 重復注冊會導致配置異常

      • ? 原有用戶配置會被覆蓋

      v0.18.2 新增完整的registerWebSearchPlugin函數,實現能力:

      1. 1. 自動在配置中創建plugins節點

      2. 2. 啟用openclaw-web-search插件

      3. 3. 將插件加入allow信任列表,避免安全提示

      4. 4. 記錄插件來源為npm,記錄插件安裝路徑

      5. 5. 持久化寫入openclaw.json配置文件

      6. 6. 保證重復調用冪等,不會重復添加配置

      同時官方新增了三組完整單元測試,保證功能穩定:

      • ? 全新配置環境:插件可正常注冊

      • ? 重復注冊:只添加一次,無冗余配置

      • ? 保留用戶原有配置:不會覆蓋已有插件與自定義字段

      這意味著用戶在使用 OpenClaw 時,無需手動安裝、配置、信任聯網搜索插件,Ollama 會全自動完成,開箱即用聯網問答能力。

      2.4 修復 OpenClaw 無法識別新選擇模型的問題

      launch模塊中,官方修復了模型切換后不生效的 Bug:

      • ? 當用戶切換主模型后,會話中仍保留舊模型

      • ?modelOverrideproviderOverride不會自動清除

      • ? 無模型覆蓋的會話,model 字段不會同步更新

      v0.18.2 新增clearSessionModelOverride函數,實現邏輯:

      1. 1. 自動刪除會話中的modelOverrideproviderOverride

      2. 2. 將所有會話的model字段統一更新為當前主模型

      3. 3. 已經使用當前模型的會話不做修改

      4. 4. 無 model 字段的會話不新增字段

      5. 5. 支持多會話混合場景

      6. 6. 會話文件不存在時不報錯,兼容異常環境

      該修復解決了長期存在的“切換模型后,對話依然使用舊模型”的問題,保證模型切換實時生效。

      三、Claude Code 本地運行速度大幅提升

      Claude Code 本地運行慢、緩存頻繁失效,是舊版本用戶反饋最多的問題之一。ollama v0.18.2 從緩存機制入手,徹底解決該問題。

      3.1 禁用 Claude 歸因頭,避免緩存斷裂

      cmd/launch/claude.go中,官方新增環境變量:

      CLAUDE_CODE_ATTRIBUTION_HEADER=0

      該配置的作用:

      • ? 關閉 Claude 歸因請求頭

      • ? 避免因請求頭變化導致 KV 緩存失效

      • ? 本地運行 Claude Code 時,緩存可以持續復用

      • ? 推理速度顯著提升,減少重復計算

      官方明確說明:本地運行 Claude Code 速度更快,原因是修復了緩存斷裂問題

      對于重度使用 Claude Code 進行本地開發、代碼生成、項目重構的用戶,這一改動可以直接帶來 30%–80% 的速度提升,尤其是長文本、長代碼生成場景。

      四、云端模型全面升級:minimax-m2.5 升級為 minimax-m2.7

      ollama v0.18.2 對內置推薦云端模型進行迭代,將 minimax-m2.5:cloud 全面升級為 minimax-m2.7:cloud,所有相關代碼、配置、測試用例全部同步修改,無一處遺漏。

      4.1 模型替換涉及的全部改動

      1. 1. 推薦模型列表
        models.go中,將推薦云模型從:

        minimax-m2.5:cloud
        改為:

        minimax-m2.7:cloud
        描述保持不變:快速高效編碼與現實生產力工具。
      2. 2. 云端模型 Token 限制
        cloudModelLimits中,將minimax-m2.5替換為minimax-m2.7,上下文長度與輸出長度保持不變:

      • ? 上下文:204800

      • ? 輸出:128000

      3. 所有單元測試用例
      integrations_test.go中所有涉及模型判斷、排序、推薦列表校驗的代碼,全部從 m2.5 改為 m2.7。

      4. 文檔同步更新

      • ?claude-code.mdx

      • ?openclaw.mdx
        兩處文檔均同步將示例模型、支持模型列表更新為 minimax-m2.7。

      5. 接口模擬測試
      openclaw_test.go中遠程模型返回字段同步修改,保證接口測試通過。

      4.2 對用戶的影響

      • ? 用戶無需手動修改配置,Ollama 自動切換為新版本云端模型

      • ? 上下文長度、速度、能力同步升級

      • ? 兼容原有調用方式,無兼容成本

      • ? 編碼、推理、工具使用效果更強

      五、無界面 Linux 系統登錄修復

      很多用戶使用服務器、無圖形化 Linux 環境運行 Ollama,舊版本在headless Linux(無 DISPLAY、無 WAYLAND_DISPLAY)環境下,登錄功能會異常崩潰或無法打開鏈接。

      v0.18.2 對 TUI 登錄界面進行修復:

      • ? 判斷系統是否為無界面環境

      • ? 如果DISPLAYWAYLAND_DISPLAY均為空,則跳過打開瀏覽器邏輯

      • ? 不再拋出異常,保證程序正常運行

      • ? 終端正常輸出登錄鏈接,用戶可手動復制到本地瀏覽器登錄

      同時移除了 OSC8 超鏈接相關代碼與測試:

      • ? 移除OSC 8終端超鏈接渲染邏輯

      • ? 刪除對應的TestRenderSignIn_OSC8Hyperlink測試用例

      • ? 簡化終端輸出,兼容更多終端工具

      這一改動極大增強了 Ollama 在 Linux 服務器、Docker、無界面環境下的兼容性,服務器用戶不再需要為登錄問題折騰環境變量。

      六、MLX 架構深度重構:推理、量化、顯存、模型加載全面優化

      MLX 是 Apple 芯片上高效運行大模型的核心引擎,ollama v0.18.2 對 MLX 相關代碼進行大規模重構,覆蓋調度、量化、嵌入層、模型加載、顯存管理、子進程啟動邏輯等,是本次底層改動最大的部分。

      6.1 調度器移除 GGML 依賴,簡化模型加載

      舊版本調度器sched.go中,loadFn函數依賴 GGML 指針,代碼冗余且不利于 MLX 模型統一管理。

      v0.18.2:

      • ? 刪除loadFn中的 GGML 參數

      • ? 模型加載不再強制先加載 GGML 元數據

      • ? 統一 MLX 與普通模型的加載流程

      • ? 代碼結構更簡潔,擴展性更強

      同時新增MLX 模型逐出機制,在顯存不足時自動卸載閑置模型,保證多模型切換穩定運行。

      6.2 新增預量化張量打包

      針對 Qwen3.5 等模型,新增:

      • ? 預量化張量打包邏輯

      • ? 優化量化存儲格式

      • ? 減少模型加載時的實時計算

      • ? 提升加載速度與推理效率

      對應提交:mlx: add prequantized tensor packing + changes for qwen35

      6.3 量化嵌入層與快速 SwiGLU 激活

      mlxrunner與模型結構中:

      • ? 新增量化嵌入層(Quantized Embedding)

      • ? 支持從量化權重直接構建嵌入層

      • ? 無需全量反量化,節省顯存與計算

      • ? 優化 SwiGLU 激活函數,使用更高效的計算方式

      • ? 修復多處運行時崩潰問題

      大幅提升小參數、量化模型在 MLX 上的運行速度。

      6.4 重構 MLX Client 與 Server 結構

      舊版本中,MLX 子進程在創建時就會啟動,無法進行顯存預判;v0.18.2 徹底重構生命周期:

      1. 1.NewServerNewClient只初始化結構,不啟動子進程

      2. 2. 真正啟動推遲到Load階段

      3. 3.Load階段先檢查模型大小與 GPU 剩余顯存

      4. 4. 顯存不足時直接拋出明確錯誤,而不是崩潰

      5. 5. 統一顯存計算邏輯,使用模型清單文件估算大小

      6. 6. 子進程啟動日志更清晰,輸出模型名與端口

      同時修復:

      • ? Linux 下 MLX 依賴庫路徑問題

      • ? Windows 環境變量配置

      • ? 子進程異常退出無錯誤提示問題

      6.5 新增量化嵌入層接口與實現

      為了支持量化模型的嵌入層復用(語言模型常用 TieWordEmbeddings),官方:

      • ? 新增EmbeddingLayer接口

      • ? 實現QuantizedEmbedding量化嵌入層

      • ? 實現AsLinear()方法,可以直接轉為線性層作為 LM Head

      • ? 支持自動從權重、scale、bias 構造量化嵌入

      • ? 支持 Qwen3.5、Llama、Gemma、GLM 等系列模型

      對應的模型代碼全部同步修改:

      • ? Gemma3

      • ? GLM4-MoE-Lite

      • ? Llama

      • ? Qwen3

      • ? Qwen3.5

      所有模型的嵌入層從固定的*nn.Embedding改為nn.EmbeddingLayer接口,兼容普通與量化兩種嵌入實現,大幅增強量化模型的推理效率。

      6.6 優化 softplus 實現,使用原生 MLX 算子

      在 Qwen3.5 模型中,舊版本 softplus 實現為:

      mlx.Log(mlx.AddScalar(mlx.Exp(x), 1.0))

      新版本直接使用新增的原生算子:

      mlx.Logaddexp(x, mlx.Zeros(x.DType(), x.Dims()...))

      減少計算步驟,提升數值穩定性與速度。

      同時修復 GatedDeltaNet 中的精度問題,統一計算精度,避免混合精度導致的數值溢出。

      七、云端代理流式傳輸修復

      舊版本在云端代理、web_search 兼容路徑中,存在JSONL 流式數據合并、粘包、不刷新問題,導致流式輸出卡頓、內容缺失、終端不實時刷新。

      v0.18.2 在cloud_proxy.go中:

      • ? 新增jsonlFramingResponseWriter結構

      • ? 按行切割 JSONL 流式數據

      • ? 緩存不完整行,等待完整后再輸出

      • ? 結束時強制刷新剩余數據

      • ? 兼容舊版 Anthropic web_search 流式格式

      并新增完整單元測試:

      • ? 測試多行合并切割邏輯

      • ? 測試無換行的尾部數據刷新

      • ? 測試云端流式轉發完整流程

      修復后, Claude、云端模型、web_search 流式輸出完全流暢,無卡頓、無丟包、無延遲。

      八、測試用例全面完善

      ollama v0.18.2 對所有新增功能、修復問題都補充了完整的單元測試,保證版本穩定:

      • ? OpenClaw 插件注冊測試(全新配置、重復注冊、保留舊配置)

      • ? 會話模型覆蓋清理測試

      • ? JSONL 幀切割測試

      • ? 量化嵌入層測試

      • ? 無界面登錄測試

      • ? 云端模型代理測試

      • ? MLX 子進程加載測試

      所有舊的失效測試用例被刪除,所有模型列表、參數、錯誤提示相關的測試全部同步更新,保證后續迭代不破壞現有功能。

      九、ollama v0.18.2 版本更新總結

      ollama v0.18.2 雖然是小版本迭代,但卻是極其偏向實用性、穩定性、兼容性的重磅更新,幾乎覆蓋了用戶日常使用中所有高頻痛點:

      1. 1.OpenClaw 易用性拉滿

      • ? 自動檢查 npm + git 依賴

      • ? 自動注冊、信任、配置 websearch 插件

      • ? 修復模型切換不生效問題

      • ? 支持命令行指定模型

      2.Claude Code 本地速度大幅提升

      • ? 關閉影響緩存的請求頭

      • ? 避免 KV 緩存斷裂

      • ? 本地推理速度顯著加快

      3.云端模型升級

      • ? minimax-m2.5 → minimax-m2.7

      • ? 全代碼、文檔、測試同步替換

      4.Linux 無界面環境完美兼容

      • ? 修復 headless 系統登錄崩潰

      • ? 簡化終端鏈接輸出

      • ? 兼容更多服務器環境

      5.MLX 架構全面現代化

      • ? 支持量化嵌入層

      • ? 模型加載與顯存檢查前置

      • ? 子進程生命周期重構

      • ? 支持預量化張量

      • ? 多模型統一接口

      6.流式輸出、云端代理完全穩定

      • ? 修復 JSONL 粘包、不刷新

      • ? 流式輸出實時流暢

      7.極高穩定性

      • ? 所有功能配套單元測試

      • ? 無破壞性兼容改動

      • ? 升級無成本,直接覆蓋使用

      十、升級建議與使用注意事項
      1. 1. 所有使用 OpenClaw、Claude Code、MLX 模型、Linux 服務器部署的用戶,強烈建議升級到 v0.18.2

      2. 2. 升級后無需修改任何原有配置,模型、會話、插件完全兼容

      3. 3. 首次運行會自動更新配置,注冊 websearch 插件,無需手動操作

      4. 4. 使用 Apple 芯片用戶,MLX 量化模型速度、顯存占用會有明顯改善

      5. 5. 云端模型用戶自動使用 minimax-m2.7,無需手動切換

      結語

      代碼地址:github.com/ollama/ollama

      ollama 一直以“極簡本地大模型部署”為核心,v0.18.2 版本再次體現了官方對用戶實際使用場景的深度理解:不追求花哨功能,專注解決依賴、速度、兼容、崩潰、流式輸出、模型切換等最基礎、最影響體驗的問題。

      我們相信人工智能為普通人提供了一種“增強工具”,并致力于分享全方位的AI知識。在這里,您可以找到最新的AI科普文章、工具評測、提升效率的秘籍以及行業洞察。 歡迎關注“福大大架構師每日一題”,發消息可獲得面試資料,讓AI助力您的未來發展。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      XChat 來了!馬斯克版微信正式發布,國區可下載

      XChat 來了!馬斯克版微信正式發布,國區可下載

      新浪財經
      2026-04-12 23:41:21
      何家擁頂級醫療資源,何超蕸仍不敵病魔,她到底得了什么病?

      何家擁頂級醫療資源,何超蕸仍不敵病魔,她到底得了什么病?

      天天熱點見聞
      2026-04-13 10:13:51
      活久見!網傳廣東一租客將價值30元沙金項鏈留屋,房東爽快退押金

      活久見!網傳廣東一租客將價值30元沙金項鏈留屋,房東爽快退押金

      阿離家居
      2026-04-13 12:18:26
      全程眼突鼓腮,看了觀眾對孫儷的評價,才知張藝謀這句話的含金量

      全程眼突鼓腮,看了觀眾對孫儷的評價,才知張藝謀這句話的含金量

      陳述影視
      2026-04-04 17:53:34
      中俄動作迅猛,特朗普炮頭調轉,對日審判已經開始,高市被催下臺

      中俄動作迅猛,特朗普炮頭調轉,對日審判已經開始,高市被催下臺

      軒逸阿II
      2026-04-12 05:19:52
      文章上海面館受追捧,一碗面32元引熱議,食客稱價格不貴很親民

      文章上海面館受追捧,一碗面32元引熱議,食客稱價格不貴很親民

      扒蝦侃娛
      2026-04-13 12:51:13
      擊敗傳統霸主俄羅斯隊,中國隊團體摘金,多名小將更驚喜奪冠

      擊敗傳統霸主俄羅斯隊,中國隊團體摘金,多名小將更驚喜奪冠

      羅掌柜體育
      2026-04-12 13:16:06
      廣東終結廣廈主場18連勝!杜鋒卻遭質疑,媒體人怒了:到底想干嘛

      廣東終結廣廈主場18連勝!杜鋒卻遭質疑,媒體人怒了:到底想干嘛

      萌蘭聊個球
      2026-04-13 09:10:16
      季后賽詹杜對決上線!杜蘭特9勝5負占優,湖人包夾KD破局?

      季后賽詹杜對決上線!杜蘭特9勝5負占優,湖人包夾KD破局?

      李喜林籃球絕殺
      2026-04-13 14:30:49
      知名國企集團,六個月沒發工資了

      知名國企集團,六個月沒發工資了

      新浪財經
      2026-04-13 04:16:19
      博主:國安將就廖力生疑似手球進球與韋世豪報復染黃進行申訴

      博主:國安將就廖力生疑似手球進球與韋世豪報復染黃進行申訴

      懂球帝
      2026-04-13 09:38:11
      開國上將鬧離婚:結發40年竟遭發妻死命舉報,六名子女為何如釋重負

      開國上將鬧離婚:結發40年竟遭發妻死命舉報,六名子女為何如釋重負

      睡前講故事
      2026-04-07 14:43:34
      煙草市場徹底變天!銷量下滑非產能過剩,供需矛盾席卷全國煙酒店

      煙草市場徹底變天!銷量下滑非產能過剩,供需矛盾席卷全國煙酒店

      老特有話說
      2026-04-12 15:57:53
      NBA擺爛卷成修羅場:8隊狂輸55場,歷史頭一回

      NBA擺爛卷成修羅場:8隊狂輸55場,歷史頭一回

      體育硬核說
      2026-04-13 13:56:28
      10年內入獄2次,爆火后“包一晚”40萬,如今的她過得怎么樣?

      10年內入獄2次,爆火后“包一晚”40萬,如今的她過得怎么樣?

      寶哥精彩賽事
      2026-04-07 15:43:13
      夠中國用2萬年!我國攻克世界級難題,搶先美國建造"無限能源"

      夠中國用2萬年!我國攻克世界級難題,搶先美國建造"無限能源"

      蜉蝣說
      2026-04-13 10:13:30
      火箭季后賽首輪唯戰湖人能突圍!掘金難撼,湖人成唯一晉級希望!

      火箭季后賽首輪唯戰湖人能突圍!掘金難撼,湖人成唯一晉級希望!

      田先生籃球
      2026-04-12 14:07:24
      外媒:一旦戰火爆發,中國將會到達無人知曉的地步

      外媒:一旦戰火爆發,中國將會到達無人知曉的地步

      老謝談史
      2026-04-12 21:56:50
      果然陽謀在任何面前都是無敵的!網友:把水攪混了,也是一種智慧

      果然陽謀在任何面前都是無敵的!網友:把水攪混了,也是一種智慧

      夜深愛雜談
      2026-04-07 17:50:08
      勝者為王!張雪辭職那年,嚴凱坦言:他很有可能會贏,但我不敢賭

      勝者為王!張雪辭職那年,嚴凱坦言:他很有可能會贏,但我不敢賭

      干史人
      2026-04-10 22:30:03
      2026-04-13 14:44:49
      moonfdd incentive-icons
      moonfdd
      福大大架構師每日一題
      1177文章數 64關注度
      往期回顧 全部

      科技要聞

      傳榮耀與字節跳動接洽“豆包手機”合作

      頭條要聞

      牛彈琴:談判失敗美國不惜自殘 用的招夠狠夠損也夠蠢

      頭條要聞

      牛彈琴:談判失敗美國不惜自殘 用的招夠狠夠損也夠蠢

      體育要聞

      一支球隊不夠爛,也是一種悲哀

      娛樂要聞

      賈玲減重后現身馮鞏生日宴 身材未反彈

      財經要聞

      封鎖,還是收費站?

      汽車要聞

      不止命名更純粹 領克10/10+要做純電操控新王

      態度原創

      健康
      教育
      手機
      親子
      時尚

      干細胞抗衰4大誤區,90%的人都中招

      教育要聞

      速看!海淀這22所中小幼學校招聘——

      手機要聞

      猛料!字節豆包手機最早找的是榮耀,現在終于談攏了?

      親子要聞

      郭碧婷傳授備孕經驗,二胎順轉剖后,整個人廢了,尤其是肢體上

      這些才是普通人借鑒的穿搭!上短下長、上窄下寬,顯瘦又舒適

      無障礙瀏覽 進入關懷版