<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網易首頁 > 網易號 > 正文 申請入駐

      大模型本地部署,全能選手LM-Studio,你可能只用了一半

      0
      分享至

      關于本地部署大模型和 Ollama 的話題,我之前寫過不少:

      為了寫,我又重新玩了一下 LM Studio —— 這個本地大模型的"全能選手"


      LM Studio 主界面

      說實話,我之前對 LM Studio 的印象還停留在"點一下就能跑模型的桌面APP"。但在 0.4 版本之后,它已經進化成了一個完整的本地 AI 開發(fā)平臺,很多隱藏用法很多同學可能都不知道。

      簡介

      LM Studio 是一款支持在本地運行 AI 大模型的工具,支持 Mac、Linux 和 Windows 全平臺。和 Ollama 不同,LM Studio 自帶一個漂亮的圖形界面,入門門檻極低——下載、搜索模型、點擊運行,三步搞定。


      LM Studio 主界面

      目前支持的主流模型相當多:gpt-oss、Qwen3、Gemma 3、DeepSeek 等等,基本上 Hugging Face 上熱門的 GGUF 和 MLX 模型都能跑。

      但今天我不想聊桌面端怎么點點點,那些是給新手看的。我想重點聊聊 LM Studio 那些真正硬核、但被大多數人忽視的用法。

      0.4 版本:全面進化

      1 月,LM Studio 發(fā)布了 0.4.0 大版本更新,這不是一個小修小補的版本,而是一次架構級的重構。

      核心變化有四個:


      llmster 無頭部署模式

      1. llmster:無 GUI 的守護進程

      這是 0.4 最炸裂的更新。LM Studio 把 GUI 和核心推理引擎拆開了,推出了llmster—— 一個可以脫離桌面界面獨立運行的守護進程

      什么意思?就是你現在可以把 LM Studio 的核心部署到任何沒有圖形界面的機器上:云服務器、GPU 算力機、CI/CD 流水線、甚至 Google Colab。

      安裝一行命令搞定:

      # Linux / Mac
      curl -fsSL https://lmstudio.ai/install.sh | bash


      # Windows
      irm https://lmstudio.ai/install.ps1 | iex

      啟動也很簡單:

      lms daemon up         # 啟動守護進程
      lms get # 下載模型
      lms server start # 啟動本地 API 服務器
      lms chat # 打開交互式聊天

      這意味著什么?意味著你家里那臺 4090 機器可以當 API 服務器用了,不需要開桌面、不需要一直盯著屏幕。llmster+lmsCLI,就是一套完整的無頭部署方案。

      2. 并行請求 + 連續(xù)批處理

      之前 LM Studio 同時只能處理一個請求,后面的排隊

      0.4 之后,基于 llama.cpp 2.0 的連續(xù)批處理實現,支持同一模型的多個并發(fā)推理請求

      加載模型時有兩個新選項:

      • Max Concurrent Predictions:設置最大并發(fā)請求數(默認 4)

      • Unified KV Cache:統(tǒng)一 KV 緩存,硬件資源不會按請求硬分區(qū),幾乎不增加內存開銷

      對于需要對外提供 API 服務的場景,這個能力直接讓 LM Studio 從"玩具"變成了"生產工具"

      3. 全新的有狀態(tài) REST API:/v1/chat

      這個端點和傳統(tǒng)的 Chat Completions 不一樣。/v1/chat有狀態(tài)的:你發(fā)一條消息,會拿到一個response_id,下次請求把previous_response_id帶上就能繼續(xù)對話。

      這樣的好處是:

      • 每次請求體很小,不用來回傳整個聊天記錄

      • 方便構建多步驟工作流

      • 響應自帶 token 統(tǒng)計和速度數據(tokens in/out、首 token 時間等)

      • 還能通過 permission keys 訪問本地 MCP 工具

      4. UI 大刷新

      聊天導出(PDF/Markdown/純文本)、分屏視圖、Developer Mode、應用內文檔——這些都是錦上添花,但確實讓整個用戶體驗上了一個臺階。


      聊天導出功能 核心:LM Studio 不為人知的開發(fā)者用法

      好,下面進入今天的重頭戲

      大部分人只把 LM Studio 當個聊天工具,但它其實提供了一整套開發(fā)者生態(tài)

      用法一:OpenAI 兼容 API —— 不改代碼,換個 URL 就行

      這是我覺得最實用的功能之一

      LM Studio 提供了完整的 OpenAI 兼容端點:

      端點

      功能

      /v1/models

      列出可用模型

      /v1/responses

      Responses API(Codex 也用這個)

      /v1/chat/completions

      傳統(tǒng)的 Chat Completions

      /v1/embeddings

      文本嵌入

      /v1/completions

      文本補全

      啥意思呢?你現在用 OpenAI SDK 跑的代碼,只需要改一行 base_url,就能切到本地模型

      Python 示例:

      from openai import OpenAI

      client = OpenAI(
      base_url="http://localhost:1234/v1"
      )

      response = client.chat.completions.create(
      model="use the model identifier from LM Studio here",
      messages=[{"role": "user", "content": "Say this is a test!"}],
      temperature=0.7
      )

      TypeScript 示例:

      import OpenAI from 'openai';


      const client = new OpenAI({
      baseUrl: "http://localhost:1234/v1"
      });

      cURL 也一樣:

      curl http://localhost:1234/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
      "model": "openai/gpt-oss-20b",
      "messages": [{"role": "user", "content": "Hello!"}],
      "temperature": 0.7
      }'

      這對開發(fā)者來說太友好了

      你寫好的 Agent、RAG 應用、AI 工作流,測試階段完全可以用本地模型跑,零成本。上線時再切回 OpenAI 或 DeepSeek 的 API

      甚至連 OpenAI 的 Codex 都支持直接對接 LM Studio

      用法二:Anthropic 兼容 API —— Claude Code 也能白嫖

      這個就更騷了。從 0.4.1 開始,LM Studio 還提供了Anthropic 兼容的/v1/messages端點

      什么意思?Claude Code 不需要用 Anthropic 的 API Key 了,直接指向 LM Studio 就行!

      三步搞定:

      第一步:啟動 LM Studio 的本地服務器

      lms server start --port 1234

      第二步:設置環(huán)境變量

      export ANTHROPIC_BASE_URL=http://localhost:1234
      export ANTHROPIC_AUTH_TOKEN=lmstudio

      第三步:運行 Claude Code

      claude --model openai/gpt-oss-20b
      Claude Code 配合 LM Studio 使用

      就這么簡單。你用本地的 GGUF 或 MLX 模型,就能驅動 Claude Code

      建議上下文窗口設到 25K tokens 以上,因為 Claude Code 消耗上下文比較猛

      如果你在 VS Code 里用 Claude Code,也可以直接在設置里配:

      "claudeCode.environmentVariables": [
      {
      "name": "ANTHROPIC_BASE_URL",
      "value": "http://localhost:1234"
      },
      {
      "name": "ANTHROPIC_AUTH_TOKEN",
      "value": "lmstudio"
      }
      ]

      支持的功能也很完整:Messages API、SSE 流式傳輸、Tool Use 都能用

      用 Anthropic 的 Python SDK 也可以直接對接:

      from anthropic import Anthropic

      client = Anthropic(
      base_url="http://localhost:1234",
      api_key="lmstudio",
      )

      message = client.messages.create(
      max_tokens=1024,
      messages=[
      {"role": "user", "content": "Hello from LM Studio"}
      ],
      model="ibm/granite-4-micro",
      )
      print(message.content)

      同時兼容 OpenAI 和 Anthropic 兩大 API,這在本地部署工具里幾乎是獨一份

      用法三:CLI 工具lms—— 命令行控的福音

      LM Studio 自帶命令行工具lms,從 0.2.22 版本就有了。但到了 0.4,CLI 的體驗完全煥然一新

      安裝很簡單,會隨 LM Studio 桌面端或llmster一起安裝

      npx lmstudio install-cli

      常用命令速查:

      lms status          # 檢查 LM Studio 狀態(tài)
      lms server start # 啟動 API 服務器
      lms server stop # 停止 API 服務器
      lms ls # 列出已下載模型
      lms ls --json # JSON 格式輸出(適合腳本處理)
      lms ps # 查看當前加載的模型
      lms load # 加載模型
      lms load -y # 最大 GPU 加速加載,跳過確認
      lms unload --all # 卸載所有模型
      lms get # 下載模型
      lms chat # 交互式聊天(新!)
      lms create # 創(chuàng)建 SDK 項目
      lms log stream # 實時查看日志
      lms runtime survey # 打印 GPU 信息
      lms runtime update llama.cpp # 更新推理引擎

      重點說下lms chat,0.4 新增的命令。

      直接在終端里開聊,支持斜杠命令、思考過程高亮、粘貼大段內容。可用的斜杠命令:/model/download/system-prompt/help/exit

      對于喜歡 Terminal 的同學來說,完全不需要打開圖形界面就能完成下載模型 → 加載模型 → 聊天 → 調試 的全部流程。

      用法四:原生 SDK —— TypeScript 和 Python 都安排了

      除了兼容 OpenAI/Anthropic 的 API,LM Studio 還提供了自己的原生 SDK

      TypeScript SDK

      npm install @lmstudio/sdk

      import { LMStudioClient } from "@lmstudio/sdk";


      const client = new LMStudioClient();
      const model = await client.llm.model("openai/gpt-oss-20b");
      const result = await model.respond("Who are you, and what can you do?");
      console.info(result.content);

      Python SDK

      pip install lmstudio

      import lmstudio as lms


      with lms.Client() as client:
      model = client.llm.model("openai/gpt-oss-20b")
      result = model.respond("Who are you, and what can you do?")
      print(result)

      原生 SDK 的好處是能力更全面:除了聊天和文本生成,還支持 Tool Calling、MCP 支持、結構化輸出(JSON Schema)、Embedding 和 Tokenization、模型管理(加載、下載、列表)等高級功能

      LM Studio 的 REST API

      lms server start --port 1234

      curl http://localhost:1234/api/v1/chat \
      -H "Content-Type: application/json" \
      -H "Authorization: Bearer $LM_API_TOKEN" \
      -d '{
      "model": "openai/gpt-oss-20b",
      "input": "Who are you, and what can you do?"
      }'
      用法五:LM Link —— 遠程加載你的模型

      這是 LM Studio 最新推出的功能,目前還在 Preview 階段,但思路很超前


      LM Link 設備連接示意

      LM Link 的核心思想:你可能有好幾臺機器(家里的 GPU 機器、公司顯卡、云服務器),LM Link 讓你在任何一臺設備上,像使用本地模型一樣使用遠程設備上的模型。

      • 基于Tailscale的 mesh VPN,端到端加密,不暴露公網端口

      • 聊天數據保留在本地,重活累活交給遠端的 GPU

      • 連你的localhost:1234接口都通用——也就是說 Codex、Claude Code、OpenCode 這些工具也能通過 LM Link 使用遠程模型

      價格方面,免費版支持 2 個用戶、每人 5 臺設備(總共 10 臺),家用和工作都可以

      這個功能對多機用戶太香了

      比如你家里放一臺 4090 算力機,上班時用 MacBook 通過 LM Link 無縫調用家里的模型

      說實話,如果你只是想快速跑個模型聊天,Ollama 的ollama run確實更簡單。但如果你有以下需求,LM Studio 更合適:

      • 需要同時兼容 OpenAI 和 Anthropic 兩套 API

      • 多臺機器之間共享模型資源

      • 需要有狀態(tài)的 REST API + MCP 工具調用

      • 想用原生 SDK 做開發(fā)

      總結

      LM Studio 在 0.4 之后,已經不是一個簡單的"本地聊天工具"了。它是一個完整的本地 AI 推理平臺:

      • 桌面端給新手用,CLI + llmster 給開發(fā)者用

      • OpenAI + Anthropic 雙兼容,幾乎所有 AI 開發(fā)工具都能無縫對接

      • LM Link 打通多設備,遠程模型像本地一樣用

      • 有狀態(tài) API + MCP + SDK,想怎么玩就怎么玩

      制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發(fā)和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關推薦
      熱點推薦
      真相曝光!日本真子公主逃離紐約,懷抱嬰兒現身康州:徹底平民化

      真相曝光!日本真子公主逃離紐約,懷抱嬰兒現身康州:徹底平民化

      奇怪的鯊魚們
      2026-04-21 14:18:34
      鄭州街頭車輛發(fā)生自燃!車主慌神挪車遭 "二次暴擊"

      鄭州街頭車輛發(fā)生自燃!車主慌神挪車遭 "二次暴擊"

      新動察
      2026-04-22 09:03:10
      未批復!這兩個超大城市,地鐵對接難了

      未批復!這兩個超大城市,地鐵對接難了

      城市財經
      2026-04-22 11:44:48
      71股今日獲機構買入評級 26股上漲空間超20%

      71股今日獲機構買入評級 26股上漲空間超20%

      證券時報
      2026-04-22 17:44:06
      1986年陳永貴病逝,追悼會規(guī)格成難題,鄧小平只說了一句話,全場安靜

      1986年陳永貴病逝,追悼會規(guī)格成難題,鄧小平只說了一句話,全場安靜

      寄史言志
      2026-01-04 16:34:31
      匈牙利爆出戲劇性消息,毛焦爾提名安妮塔·歐爾班出任新政府外長

      匈牙利爆出戲劇性消息,毛焦爾提名安妮塔·歐爾班出任新政府外長

      墜入二次元的海洋
      2026-04-22 15:15:16
      五連敗切爾西徹底崩盤!主帥放豪言:6年合同在手,絕不下課!

      五連敗切爾西徹底崩盤!主帥放豪言:6年合同在手,絕不下課!

      田先生籃球
      2026-04-22 06:57:15
      三甲醫(yī)院科主任葉某萍被舉報“巨額財產來源不明”,1年前停職調查,舉報人:內部通知顯示其被查實“違紀違法”

      三甲醫(yī)院科主任葉某萍被舉報“巨額財產來源不明”,1年前停職調查,舉報人:內部通知顯示其被查實“違紀違法”

      大風新聞
      2026-04-22 17:49:04
      從古至今賺錢最快的3個方法:從未改變,只是你一直蒙在鼓里

      從古至今賺錢最快的3個方法:從未改變,只是你一直蒙在鼓里

      第一桶金學派
      2026-03-07 16:28:52
      工業(yè)富聯(lián)午后觸及漲停

      工業(yè)富聯(lián)午后觸及漲停

      每日經濟新聞
      2026-04-22 14:40:09
      偉大的10-2!吳宜澤破百收工,復仇戰(zhàn)創(chuàng)2大紀錄,中國4人進16強!

      偉大的10-2!吳宜澤破百收工,復仇戰(zhàn)創(chuàng)2大紀錄,中國4人進16強!

      劉姚堯的文字城堡
      2026-04-21 22:32:23
      不比不知道,一比嚇一跳!蘇林回國后很焦慮:原來我們落后這么多

      不比不知道,一比嚇一跳!蘇林回國后很焦慮:原來我們落后這么多

      春序娛樂
      2026-04-22 03:23:34
      人民日報聯(lián)合工信部緊急預警:全體iPhone用戶,請立刻升級系統(tǒng)!

      人民日報聯(lián)合工信部緊急預警:全體iPhone用戶,請立刻升級系統(tǒng)!

      小柱解說游戲
      2026-04-19 20:52:59
      中國不買了,對荷光刻機優(yōu)待取消,ASML底牌打完,中國王牌還沒出

      中國不買了,對荷光刻機優(yōu)待取消,ASML底牌打完,中國王牌還沒出

      王新喜
      2026-04-22 17:14:26
      多地出臺政策,鼓勵技校招收大學畢業(yè)生

      多地出臺政策,鼓勵技校招收大學畢業(yè)生

      21世紀經濟報道
      2026-04-21 09:00:05
      老詹破紀錄,2-0觸發(fā)必勝鐵律!湖人2換1+2年1100萬抄底翻版東里

      老詹破紀錄,2-0觸發(fā)必勝鐵律!湖人2換1+2年1100萬抄底翻版東里

      鍋子籃球
      2026-04-22 15:25:51
      錢留下,人別來!西班牙主席對中國甩出一句話,全網炸鍋了

      錢留下,人別來!西班牙主席對中國甩出一句話,全網炸鍋了

      菁菁子衿
      2026-04-21 10:11:50
      最新:烏克蘭海馬斯導彈齊發(fā)扎波羅熱!空襲俄軍指揮部

      最新:烏克蘭海馬斯導彈齊發(fā)扎波羅熱!空襲俄軍指揮部

      項鵬飛
      2026-04-21 20:22:30
      特大級建工集團崩了,從業(yè)20年的老員工:天塌了!

      特大級建工集團崩了,從業(yè)20年的老員工:天塌了!

      新浪財經
      2026-04-22 10:14:20
      零跑挑戰(zhàn)“杭州至北京千里續(xù)航不間斷”,直播時突發(fā)意外!副總裁:小bug

      零跑挑戰(zhàn)“杭州至北京千里續(xù)航不間斷”,直播時突發(fā)意外!副總裁:小bug

      都市快報橙柿互動
      2026-04-22 16:58:33
      2026-04-22 20:56:49
      Ai學習的老章 incentive-icons
      Ai學習的老章
      Ai學習的老章
      3344文章數 11139關注度
      往期回顧 全部

      科技要聞

      對話梅濤:沒有視頻底座,具身智能走不遠

      頭條要聞

      伊朗扣留兩艘船并強調"紅線" 責令美國釋放被扣貨船

      頭條要聞

      伊朗扣留兩艘船并強調"紅線" 責令美國釋放被扣貨船

      體育要聞

      網易傳媒再度簽約法國隊和阿根廷隊

      娛樂要聞

      復婚無望!baby黃曉明陪小海綿零交流

      財經要聞

      醫(yī)院專家號"秒空"!警方牽出黑色產業(yè)鏈

      汽車要聞

      純電續(xù)航301km+激光雷達 宋Pro DM-i飛馳版9.99萬起

      態(tài)度原創(chuàng)

      本地
      健康
      家居
      時尚
      公開課

      本地新聞

      春色滿城關不住|白鵑梅浪漫盛放,吳山藏了一片四月雪

      干細胞抗衰4大誤區(qū),90%的人都中招

      家居要聞

      極簡繪夢 克制和諧

      今年春夏一定要有“這件衣服”,高級又氣質!

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關懷版