<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      ollama v0.18.3 發布:VS Code 原生集成 + Agent 模式,本地 AI 開發體驗全面革新

      0
      分享至




      一、版本總覽:Ollama v0.18.3,2026年3月26日正式上線

      2026年3月26日,開源本地大模型管理工具Ollama正式發布v0.18.3版本,這是Ollama在AI開發工具集成領域的一次里程碑式升級。本次更新核心聚焦VS Code深度原生集成Agent模式能力開放兩大核心功能,同時完成多項底層優化與Bug修復,進一步強化了本地大模型在開發場景中的實用性與穩定性。

      從版本更新數據來看,本次v0.18.3版本由8位貢獻者共同參與,累計提交22次代碼提交,涉及83個文件修改,覆蓋從核心功能開發、文檔更新到底層引擎優化的全流程,是一次功能與穩定性并重的全面升級。

      二、核心功能一:Ollama原生啟動VS Code,本地模型無縫融入開發環境 2.1 功能核心:一行命令打通Ollama與VS Code

      Ollama v0.18.3最重磅的更新,是實現了Ollama直接啟動VS Code的原生能力,開發者無需額外配置復雜的插件或中間件,僅需一行命令即可完成Ollama與VS Code的深度綁定,讓本地大模型成為VS Code開發環境的原生組成部分。

      啟動命令極為簡潔,在終端中輸入以下任意一條命令即可:

                                                                 ollama launch vscode
      # 或
      ollama launch code

      執行命令后,Ollama會自動完成與VS Code的連接配置,無需手動修改VS Code設置或安裝第三方擴展,即可在VS Code中直接調用本地部署的所有Ollama模型。

      2.2 操作流程:三步在VS Code中使用Ollama模型

      命令執行完成后,開發者可通過以下三步,在VS Code的Copilot Chat中無縫使用Ollama本地模型,實現AI輔助編碼:

      1. 1. 打開Copilot Chat :在VS Code中打開Copilot Chat界面,macOS系統使用快捷鍵 Ctrl+Cmd+I ,Windows/Linux系統使用快捷鍵 Ctrl+Alt+I ;

      2. 2. 選擇模型選擇器 :在Copilot Chat的輸入框上方,找到并點擊 模型選擇器 (Model Picker);

      3. 3. 選擇Ollama模型 :在模型選擇器中點擊 Other models (其他模型)選項,即可在列表中找到所有本地部署的Ollama模型,選擇后即可開始使用本地或云端模型進行編碼輔助。

      這一流程徹底簡化了本地大模型與VS Code的集成步驟,此前開發者需手動安裝Continue、Copilot Chat等擴展并配置模型地址,而Ollama v0.18.3通過原生集成,將這一過程壓縮為一行命令+三步操作,大幅降低了本地AI開發的使用門檻。

      2.3 功能價值:本地模型+VS Code,打造私有化AI開發環境

      Ollama原生啟動VS Code的核心價值,在于為開發者提供了私有化、離線化、可定制的AI開發環境:

      • ? 數據安全 :所有代碼交互與模型推理均在本地完成,無需將代碼上傳至云端,徹底解決企業與個人開發者的代碼隱私顧慮;

      • ? 離線可用 :無需依賴網絡連接,即可在無網環境下使用本地模型進行代碼生成、調試與優化,適配離線開發場景;

      • ? 模型自由 :支持所有Ollama兼容的本地模型(如Llama 3、Qwen、DeepSeek-Coder等),開發者可根據需求選擇輕量級或高性能模型,無需受限于云端模型的選擇范圍;

      • ? 無縫協同 :與VS Code原生功能深度融合,支持代碼補全、錯誤修復、文檔生成等全場景開發輔助,無需在多個工具間切換。

      三、核心功能二:Agent模式上線,Ollama化身VS Code智能開發助手 3.1 Agent模式定義:讓Ollama具備自主執行開發任務的能力

      Ollama v0.18.3正式開放Agent模式,這一功能讓Ollama能夠借助VS Code的Agent模式能力,自主執行命令、編輯文件、迭代代碼,從單純的“問答式AI助手”升級為“可行動的開發智能體”,大幅提升AI在開發流程中的自動化能力。

      簡單來說,Agent模式下的Ollama不再局限于“你問我答”,而是可以根據開發者的指令,直接操作VS Code完成一系列開發任務,例如運行測試、修復Bug、生成文檔、修改代碼等,實現開發流程的自動化與智能化。

      3.2 實用指令:Agent模式下的高頻開發指令示例

      Agent模式支持開發者通過自然語言指令,讓Ollama自主完成復雜開發任務,以下是本次更新中官方推薦的高頻實用指令,覆蓋測試、文檔、代碼生成三大核心場景:

      1. 1. 測試相關指令

        • ? “Run the tests and fix any failures”(運行測試并修復所有失敗用例):Ollama會自動運行項目測試,定位失敗原因,直接修改代碼修復問題;

        • ? “Generate unit tests for this file”(為當前文件生成單元測試):自動分析當前文件的代碼邏輯,生成覆蓋核心功能的單元測試代碼;

      2. 2. 文檔相關指令

        • ? “Update the README with the new API changes”(根據新的API變更更新README文檔):自動識別項目API的更新內容,同步修改README文檔,確保文檔與代碼一致;

      3. 3. 代碼迭代指令

        • ? 支持“優化當前函數性能”“重構代碼結構”“添加注釋”等自定義指令,Ollama會根據指令自主編輯代碼文件,完成迭代優化。

      3.3 功能優勢:Agent模式重構本地AI開發流程

      Agent模式的推出,徹底改變了本地大模型在開發中的角色,核心優勢體現在三個方面:

      • ? 任務自動化 :將開發者從重復、繁瑣的開發任務中解放,例如測試修復、文檔更新、代碼生成等,大幅提升開發效率;

      • ? 上下文感知 :基于VS Code的項目上下文,Ollama可精準理解項目結構、代碼邏輯與開發需求,執行的操作更貼合實際開發場景;

      • ? 全流程協同 :從代碼編寫、測試到文檔維護,Agent模式覆蓋開發全流程,實現AI與開發工具的深度協同,打造“一站式”智能開發體驗。

      四、其他核心更新:底層優化+集成增強,全面提升Ollama穩定性

      除了VS Code集成與Agent模式兩大核心功能,Ollama v0.18.3還完成了多項底層優化與集成能力增強,覆蓋工具調用解析、第三方集成、引擎修復、功能完善等多個維度,進一步夯實了Ollama的穩定性與兼容性。

      4.1 工具調用優化:GLM解析器升級,提升工具調用穩定性

      本次更新對GLM解析器進行了專項優化,重點提升了模型工具調用(Tool Calls)的解析能力與穩定性。GLM解析器是Ollama處理模型工具調用請求的核心組件,優化后可更精準地解析模型輸出的工具調用指令,減少解析錯誤與格式異常,確保Agent模式下的命令執行、文件操作等功能穩定運行,為Agent模式的落地提供了底層支撐。

      4.2 第三方集成增強:OpenClaw集成優化,完善網關檢查邏輯

      Ollama v0.18.3對OpenClaw集成進行了深度優化,重點改進了網關檢查(Gateway Checks)的邏輯與穩定性。OpenClaw是Ollama的重要第三方集成組件,用于實現模型的聯網搜索、外部服務調用等能力,本次優化后:

      • ? 網關健康檢查邏輯更健壯,可適配不同網絡環境與部署場景;

      • ? 修復了無守護進程安裝時的網關檢查冗余問題,減少不必要的系統資源消耗;

      • ? 提升了OpenClaw與Ollama核心服務的協同效率,確保聯網能力穩定可用。

      4.3 底層引擎修復:MLX Runner多項修復,優化推理性能

      針對MLX Runner(Ollama的核心推理引擎之一),本次更新修復了多項關鍵問題,同時優化了緩存機制與推理性能:

      1. 1. 修復Slice(0, 0)返回異常 :修復了MLX Runner中 Slice(0, 0) 操作返回完整維度而非空維度的Bug,確保張量操作的準確性;

      2. 2. KV緩存共享優化 :實現了 KV緩存跨會話共享 ,對于具有公共前綴的對話會話,可復用已緩存的KV數據,大幅降低重復推理的內存消耗與時間成本;

      3. 3. 緩存管理增強 :支持純Transformer緩存的部分匹配,優化緩存命中率;在緩存轉儲樹中顯示“上次使用時間”,方便開發者監控緩存狀態;修復了雙重取消固定(double unpin)導致的panic問題,提升引擎穩定性;

      4. 4. 格式支持擴展 :新增mxfp4、mxfp8、nvfp4等量化格式的導入支持,適配更多量化模型,提升本地推理的兼容性。

      4.4 功能完善與Bug修復:覆蓋桌面端、日志、CI等全場景

      本次更新還完成了多項功能完善與Bug修復,覆蓋桌面應用、日志系統、CI流程、交互界面等多個維度:

      1. 1. 桌面應用修復 :修復了OLLAMA_HOST配置為未指定地址時,桌面應用 stuck加載的問題,提升桌面端兼容性;

      2. 2. 日志系統優化 :新增調試請求日志開關,支持開啟詳細的請求日志記錄,方便開發者排查問題;修復了MLX子進程日志死鎖問題,確保日志輸出穩定;

      3. 3. 交互界面優化 :TUI(終端交互界面)的模型選擇器新增左箭頭返回導航功能,提升終端操作的便捷性;

      4. 4. CI流程修復 :修復了Windows平臺下CGO編譯器錯誤,確保CI/CD流程在Windows環境下穩定運行;

      5. 5. 配置優化 :launch模塊新增“模型未變更時跳過冗余配置寫入”邏輯,減少不必要的磁盤IO,提升啟動效率;

      6. 6. API修復 :修復了api/show模塊中Copilot Chat的basename覆蓋問題,確保模型信息展示準確。

      4.5 文檔更新:完善集成指南,覆蓋OpenClaw、Claude Code等場景

      為配合新功能上線,Ollama官方同步更新了文檔內容,重點完善了第三方集成與使用指南:

      • ? 更新Claude Code相關文檔,新增Telegram集成指南,擴展Claude模型的使用場景;

      • ? 新增Nemoclaw集成文檔,完善OpenClaw生態的使用說明;

      • ? 更新OpenClaw的Web搜索相關文檔,明確聯網能力的使用方法與配置細節。

      五、版本更新明細:按時間線梳理所有提交內容

      Ollama v0.18.3版本的代碼提交覆蓋2026年3月18日至3月25日,以下按時間線完整梳理所有提交內容,確保無遺漏:

      5.1 3月18日提交

      1. 1. 文檔更新:更新Claude代碼與OpenClaw的Web搜索相關內容;

      2. 2. 配置優化:cmd/launch模塊新增“模型未變更時跳過冗余配置寫入”邏輯;

      3. 3. MLX Runner修復:修復 Slice(0, 0) 返回異常問題;

      4. 4. MLX Runner優化:實現KV緩存跨會話共享(公共前綴復用)。

      5.2 3月19日提交
      1. 1. 桌面應用修復:修復OLLAMA_HOST未指定時桌面應用加載卡住問題;

      2. 2. 工具解析優化:parsers模塊新增健壯的XML工具修復功能,提升工具調用穩定性。

      5.3 3月20日提交
      1. 1. 功能新增:新增調試請求日志開啟功能;

      2. 2. MLX修復:修復子進程日志死鎖問題;

      3. 3. MLX Runner修復:修復done通道值被第一個接收者消費的問題;

      4. 4. OpenClaw優化:launch模塊新增“無守護進程安裝時跳過OpenClaw網關健康檢查”邏輯;

      5. 5. 文檔更新:新增Nemoclaw集成文檔。

      5.4 3月23日提交
      1. 1. MLX更新:同步更新MLX引擎至3月23日版本;

      2. 2. 文檔更新:更新Claude Code文檔,新增Telegram集成指南。

      5.5 3月24日提交
      1. 1. MLX Runner優化:支持純Transformer緩存的部分匹配;

      2. 2. MLX Runner優化:緩存轉儲樹中顯示“上次使用時間”;

      3. 3. MLX Runner修復:修復雙重取消固定導致的panic問題;

      4. 4. 格式支持:新增mxfp4、mxfp8、nvfp4量化格式導入支持;

      5. 5. 測試優化:提升單個模型的測試能力;

      6. 6. CI修復:修復Windows平臺CGO編譯器錯誤。

      5.6 3月25日提交
      1. 1. TUI優化:模型選擇器新增左箭頭返回導航功能;

      2. 2. 核心功能開發:實現ollama launch vscode核心功能;

      3. 3. API修復:修復api/show模塊中Copilot Chat的basename覆蓋問題。

      六、總結:Ollama v0.18.3,本地AI開發的“效率革命”

      代碼地址:bgithub.xyz/ollama/ollama

      Ollama v0.18.3版本的發布,標志著本地大模型在開發工具集成領域進入了全新階段。本次更新通過VS Code原生集成Agent模式開放兩大核心功能,徹底打通了本地大模型與主流開發編輯器的壁壘,讓私有化、離線化的AI開發成為現實;同時,底層引擎的全面優化、第三方集成的增強以及多項Bug修復,進一步提升了Ollama的穩定性與實用性。

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      命中了!以色列真干了!

      命中了!以色列真干了!

      財經要參
      2026-04-13 08:30:03
      抗日神劇不可信:一個日本攝影師,1940年拍的鬼子進村

      抗日神劇不可信:一個日本攝影師,1940年拍的鬼子進村

      兵卒史
      2026-04-12 03:18:32
      孫楊張豆豆婚齡3年娃2歲,和公婆住杭州300平豪宅,2歲女兒近1米

      孫楊張豆豆婚齡3年娃2歲,和公婆住杭州300平豪宅,2歲女兒近1米

      科學發掘
      2026-04-13 02:06:01
      斯諾克賽程:決出16席48強,147先生領銜,中國10人沖決勝輪!

      斯諾克賽程:決出16席48強,147先生領銜,中國10人沖決勝輪!

      劉姚堯的文字城堡
      2026-04-13 08:15:41
      醫生告誡:每天睡前玩手機的人,不用半年時間,睡眠或有這6變化

      醫生告誡:每天睡前玩手機的人,不用半年時間,睡眠或有這6變化

      白話電影院
      2026-04-05 15:34:47
      蔣介石孫子召開發布會,提出“兩蔣”移靈大陸,2句話讓世人唏噓

      蔣介石孫子召開發布會,提出“兩蔣”移靈大陸,2句話讓世人唏噓

      老謝談史
      2026-03-18 18:33:35
      “臺灣永遠都不會是中國的一部分”,她被全民唾罵,被明星扇耳光

      “臺灣永遠都不會是中國的一部分”,她被全民唾罵,被明星扇耳光

      閱微札記
      2026-02-28 20:01:18
      40天血戰成本曝光!伊朗損失1450億,美國砸310億:誰更扛不住?

      40天血戰成本曝光!伊朗損失1450億,美國砸310億:誰更扛不???

      云舟史策
      2026-04-12 07:56:13
      皇馬有救了?伯納烏傳奇或將回歸,弗洛倫蒂諾終于低頭

      皇馬有救了?伯納烏傳奇或將回歸,弗洛倫蒂諾終于低頭

      瀾歸序
      2026-04-13 05:03:00
      數艘美國海軍艦船通過霍爾木茲海峽

      數艘美國海軍艦船通過霍爾木茲海峽

      每日經濟新聞
      2026-04-11 21:23:39
      辛納蒙卡奪冠追平德約一項了不起紀錄,阿卡意外崩盤交出世界第一

      辛納蒙卡奪冠追平德約一項了不起紀錄,阿卡意外崩盤交出世界第一

      網球之家
      2026-04-13 09:48:34
      退圈女星自曝,被注射不明物質,不聽話就頭疼,秦嵐也被牽連其中

      退圈女星自曝,被注射不明物質,不聽話就頭疼,秦嵐也被牽連其中

      阿纂看事
      2026-04-10 14:27:16
      為什么聰明人還在買油車?網友:電車只省油,又沒說省錢!

      為什么聰明人還在買油車?網友:電車只省油,又沒說省錢!

      趣味萌寵的日常
      2026-04-13 06:15:20
      5月1日嚴查!8類灰色行為入刑,職場人、生意人千萬別踩紅線

      5月1日嚴查!8類灰色行為入刑,職場人、生意人千萬別踩紅線

      芭比衣櫥
      2026-04-13 08:14:45
      損傷閨蜜6.8萬紫貂大衣女子發聲:她工作丟了,要把閨蜜送進去

      損傷閨蜜6.8萬紫貂大衣女子發聲:她工作丟了,要把閨蜜送進去

      江山揮筆
      2026-04-12 09:32:03
      杭州大伯為35歲女兒連跑3處相親角:身高1米68,國企上班,年年都是優秀員工,“相親不是買菜,哪那么容易碰上滿意的”

      杭州大伯為35歲女兒連跑3處相親角:身高1米68,國企上班,年年都是優秀員工,“相親不是買菜,哪那么容易碰上滿意的”

      極目新聞
      2026-04-12 19:58:35
      留學行業的寒冬已經來了!

      留學行業的寒冬已經來了!

      英國大學申請中心
      2026-04-12 22:03:42
      A股:剛剛,中央權威重要發布,釋放關鍵信息,周一A股迎關鍵變盤

      A股:剛剛,中央權威重要發布,釋放關鍵信息,周一A股迎關鍵變盤

      云鵬敘事
      2026-04-13 00:00:07
      白天作陪晚上同宿?明碼標價8000一回!高端伴游淪為色情交易窩點

      白天作陪晚上同宿?明碼標價8000一回!高端伴游淪為色情交易窩點

      網絡易不易
      2026-01-20 10:17:46
      龍湖集團前高管出任復星集團總裁

      龍湖集團前高管出任復星集團總裁

      地產微資訊
      2026-04-13 09:39:41
      2026-04-13 11:03:00
      moonfdd incentive-icons
      moonfdd
      福大大架構師每日一題
      1177文章數 64關注度
      往期回顧 全部

      科技要聞

      李想向黑水軍開炮!連發5條朋友圈

      頭條要聞

      牛彈琴:談判失敗美國不惜自殘 用的招夠狠夠損也夠蠢

      頭條要聞

      牛彈琴:談判失敗美國不惜自殘 用的招夠狠夠損也夠蠢

      體育要聞

      創造歷史!五大聯賽首位女性主教練誕生

      娛樂要聞

      賭王女兒何超蕸病逝,常年和乳癌斗爭

      財經要聞

      封鎖,還是收費站?

      汽車要聞

      不止命名更純粹 領克10/10+要做純電操控新王

      態度原創

      親子
      本地
      家居
      數碼
      公開課

      親子要聞

      媽媽的手就是他的阿貝貝

      本地新聞

      12噸巧克力有難,全網化身超級偵探添亂

      家居要聞

      復古風格 自然簡約

      數碼要聞

      聯蕓將開發PCIe Gen6消費級SSD主控MAP2001,瞄準28GB/s

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版