<cite id="ffb66"></cite><cite id="ffb66"><track id="ffb66"></track></cite>
      <legend id="ffb66"><li id="ffb66"></li></legend>
      色婷婷久,激情色播,久久久无码专区,亚洲中文字幕av,国产成人A片,av无码免费,精品久久国产,99视频精品3
      網(wǎng)易首頁 > 網(wǎng)易號 > 正文 申請入駐

      MiniMax-M2.7 開源了,本地部署指南

      0
      分享至

      MiniMax-M2.7 上月推出,時隔半個多月,剛剛開源了

      這次開源,可以發(fā)現(xiàn)很多更細節(jié)的內(nèi)容,不過我就不過多介紹了

      因為我簡單測試之后,沒達到我的預期,主要介紹一下本地部署相關(guān)的內(nèi)容吧

      我是用的 Nvidia 提供的線上測試,用例依然是閱讀理解+svg 代碼生成 + 審美

      結(jié)果是比較跌眼睛的,甚至感覺有 Qwen3 的水平

      與 GLM-5.1 半斤八兩

      它倆都遠不及 Qwen3.6 Plus(僅代表本人觀點,僅此測試用例感受)


      簡介

      M2.7 的核心亮點:

      • 模型自我進化 :M2.7 能自主更新記憶、構(gòu)建技能、改進學習流程,經(jīng)過 100+ 輪自主優(yōu)化,性能提升 30%

      • 專業(yè)軟件工程 :SWE-Pro 達到 56.22%,與 GPT-5.3-Codex 持平,生產(chǎn)環(huán)境事故恢復時間壓縮到 3 分鐘以內(nèi)

      • 專業(yè)辦公能力 :GDPval-AA ELO 1495,開源模型最高,Word/Excel/PPT 高保真多輪編輯

      • 原生 Agent Teams :支持多智能體協(xié)作,角色穩(wěn)定、自主決策

      M2.7 模型技術(shù)規(guī)格藍圖

      代碼能力號稱媲美 GPT-5.3-Codex


      M2.7 基準性能全景 部署方式:生態(tài)全面開花 M2.7 部署生態(tài)全景

      成本是 230GB 起步,我覺得 2 張 H200 可能都勉強,官方建議至少 4 張 H200


      目前量化版本應該都在加急中,截止此刻,還都只創(chuàng)建好了文件夾而已

      按照以往 unSloth 的戰(zhàn)績,壓縮到幾十 GB 不是難事


      MLE Bench Lite 自我進化性能 Ollama

      Ollama 最新版 已經(jīng)有 minimax-m2.7:cloud 可以免費使用了



      M2.7 已登錄 Ollama 云端,商業(yè)許可可用

      # 與 OpenClaw 一起使用
      ollama launch openclaw --model minimax-m2.7:cloud


      # 直接聊天
      ollama run minimax-m2.7:cloud
      Ollama 支持 MiniMax M2.7

      這里要注意,目前 Ollama 上的 M2.7 走的是云端推理(:cloud 標簽),原因是 230B 參數(shù)的 MoE 模型本地跑起來需要的顯存實在太大

      等后續(xù)量化版出來,應該會有本地可跑的版本

      vLLM

      vLLM 提供了 Day-0 支持,是目前最成熟的部署方案之一

      # 基礎(chǔ)部署(4 卡 H200/H100/A100)
      vllm serve MiniMaxAI/MiniMax-M2.7 \
      --tensor-parallel-size 4 \
      --tool-call-parser minimax_m2 \
      --reasoning-parser minimax_m2 \
      --compilation-config '{"mode":3,"pass_config":{"fuse_minimax_qk_norm":true}}' \
      --enable-auto-tool-choice \
      --trust-remote-code


      # 8 卡部署(DP+EP 模式)
      vllm serve MiniMaxAI/MiniMax-M2.7 \
      --data-parallel-size 8 \
      --enable-expert-parallel \
      --tool-call-parser minimax_m2 \
      --reasoning-parser minimax_m2 \
      --enable-auto-tool-choice

      Docker 一鍵啟動

      docker run --gpus all \
      -p 8000:8000 \
      --ipc=host \
      -v ~/.cache/huggingface:/root/.cache/huggingface \
      vllm/vllm-openai:minimax27 MiniMaxAI/MiniMax-M2.7 \
      --tensor-parallel-size 4 \
      --tool-call-parser minimax_m2 \
      --reasoning-parser minimax_m2 \
      --enable-auto-tool-choice \
      --trust-remote-code

      vLLM 支持 NVIDIA 和 AMD 兩大平臺:

      • NVIDIA :4×H200/H100/A100 張量并行,或 8 卡 DP+EP/TP+EP 模式

      • AMD :2× 或 4× MI300X/MI325X/MI350X/MI355X,支持 AITER 加速

      系統(tǒng)需求:權(quán)重需要約 220GB 顯存,每 100 萬上下文 token 額外需要 240GB。

      SGLang

      SGLang 同樣提供了 Day-0 支持

      sglang serve \
      --model-path MiniMaxAI/MiniMax-M2.7 \
      --tp 4 \
      --tool-call-parser minimax-m2 \
      --reasoning-parser minimax-append-think \
      --trust-remote-code \
      --mem-fraction-static 0.85

      SGLang 的一個特點是支持 Thinking 模式,通過 minimax-append-think 解析器,可以把思考過程和最終內(nèi)容分開展示。

      快速測試部署是否成功:

      curl http://localhost:30000/v1/chat/completions \
      -H "Content-Type: application/json" \
      -d '{
      "model": "MiniMaxAI/MiniMax-M2.7",
      "messages": [
      {"role": "system", "content": [{"type": "text", "text": "You are a helpful assistant."}]},
      {"role": "user", "content": [{"type": "text", "text": "Who won the world series in 2020?"}]}
      ]
      }'

      M2.7 在 SGLang 上的推薦推理參數(shù):temperature=1.0,top_p=0.95top_k=40

      NVIDIA 加持

      NVIDIA 這次給了 MiniMax 很大的支持力度


      NVIDIA 支持 MiniMax M2.7

      GPU 加速端點:在 build.nvidia.com/minimaxai/minimax-m2.7 可以免費試用 M2.7

      推理優(yōu)化:NVIDIA 和開源社區(qū)合作,為 vLLM 和 SGLang 做了兩個關(guān)鍵優(yōu)化:

      1. QK RMS Norm Kernel :將計算和通信操作融合到單個內(nèi)核中,減少了內(nèi)核啟動和顯存讀寫開銷

      2. FP8 MoE :集成了 TensorRT-LLM 的 FP8 MoE 模塊化內(nèi)核,專門針對 MoE 模型優(yōu)化

      結(jié)果非常驚人——在 NVIDIA Blackwell Ultra GPU 上:

      • vLLM 吞吐量提升 2.5 倍 (一個月內(nèi)實現(xiàn))

      • SGLang 吞吐量提升 2.7 倍 (一個月內(nèi)實現(xiàn))

      NemoClaw:NVIDIA 提供了開源參考棧 NemoClaw,一鍵部署 OpenClaw 持續(xù)運行助手

      微調(diào)支持:通過 NeMo AutoModel 庫進行后訓練,支持 EP + PP 訓練方案。NeMo RL 庫還提供了 GRPO 強化學習的樣例配方(8K 和 16K 序列長度)

      微調(diào)配方:

      # NeMo AutoModel 微調(diào)配方
      https://github.com/NVIDIA-NeMo/Automodel/blob/main/examples/llm_finetune/minimax_m2/minimax_m2.7_hellaswag_pp.yaml


      # 分布式訓練文檔
      https://github.com/NVIDIA-NeMo/Automodel/discussions/1786
      Transformers

      也可以用 HuggingFace Transformers 直接加載模型,參考 Transformers 部署指南 (huggingface.co/MiniMaxAI/MiniMax-M2.7/blob/main/docs/transformers_deploy_guide.md)

      ModelScope

      國內(nèi)用戶也可以從 ModelScope(modelscope.cn/models/MiniMax/MiniMax-M2.7) 下載模型權(quán)重

      Tool Calling 和 Thinking 模式

      M2.7 同時支持工具調(diào)用和思考模式,這讓它在 Agent 場景下更加靈活。

      工具調(diào)用示例(以 SGLang 為例):

      from openai import OpenAI

      client = OpenAI(
      base_url="http://localhost:30000/v1",
      api_key="EMPTY"
      )

      tools = [
      {
      "type": "function",
      "function": {
      "name": "get_weather",
      "description": "Get the current weather for a location",
      "parameters": {
      "type": "object",
      "properties": {
      "location": {
      "type": "string",
      "description": "The city name"
      }
      },
      "required": ["location"]
      }
      }
      }
      ]

      response = client.chat.completions.create(
      model="MiniMaxAI/MiniMax-M2.7",
      messages=[
      {"role": "user", "content": "What's the weather in Beijing?"}
      ],
      tools=tools
      )

      message = response.choices[0].message
      if message.tool_calls:
      for tool_call in message.tool_calls:
      print(f"Tool Call: {tool_call.function.name}")
      print(f" Arguments: {tool_call.function.arguments}")

      Thinking 模式:通過 ... 標簽把思考過程包裹在內(nèi)容中。在流式輸出場景下,可以實時解析這些標簽,把思考和最終回答分開展示。

      快速上手

      如果你想快速體驗 M2.7,最簡單的方式:

      方式一:API 調(diào)用

      訪問 platform.minimax.io 注冊開發(fā)者賬號,通過 API 調(diào)用。

      方式二:MiniMax Agent

      訪問 agent.minimax.io 直接在線對話。

      方式三:Ollama 云端

      ollama run minimax-m2.7:cloud

      方式四:NVIDIA 免費端點

      訪問 build.nvidia.com/minimaxai/minimax-m2.7 在瀏覽器中直接測試。

      .7

      制作不易,如果這篇文章覺得對你有用,可否點個關(guān)注。給我個三連擊:點贊、轉(zhuǎn)發(fā)和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

      特別聲明:以上內(nèi)容(如有圖片或視頻亦包括在內(nèi))為自媒體平臺“網(wǎng)易號”用戶上傳并發(fā)布,本平臺僅提供信息存儲服務(wù)。

      Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

      相關(guān)推薦
      熱點推薦
      重要突破,科學家注射一個腫瘤細胞,全身癌細胞竟然消失

      重要突破,科學家注射一個腫瘤細胞,全身癌細胞竟然消失

      心中的麥田
      2026-04-19 18:26:11
      美國至少10名科研人員離奇死亡或神秘失蹤引發(fā)廣泛關(guān)注!大都接觸UFO、航空航天、原子能等涉密項目,白宮承諾:徹查

      美國至少10名科研人員離奇死亡或神秘失蹤引發(fā)廣泛關(guān)注!大都接觸UFO、航空航天、原子能等涉密項目,白宮承諾:徹查

      大風新聞
      2026-04-20 09:35:11
      特朗普第一任期的白宮律師突然爆猛料:特朗普已經(jīng)撐不下去了

      特朗普第一任期的白宮律師突然爆猛料:特朗普已經(jīng)撐不下去了

      西樓知趣雜談
      2026-04-19 21:25:23
      快檢查自家陽臺!有人家里已大量出現(xiàn),官方提醒:千萬別摸

      快檢查自家陽臺!有人家里已大量出現(xiàn),官方提醒:千萬別摸

      環(huán)球網(wǎng)資訊
      2026-04-18 16:23:18
      伊朗總統(tǒng):美國持續(xù)背信棄義 做出霸凌且不合理行為

      伊朗總統(tǒng):美國持續(xù)背信棄義 做出霸凌且不合理行為

      中國網(wǎng)
      2026-04-20 11:09:10
      普京訪華行程敲定,特朗普已下命令,中國向全球通告,無懼美國

      普京訪華行程敲定,特朗普已下命令,中國向全球通告,無懼美國

      田園小歸
      2026-04-20 09:17:43
      爭議?對手疑似伸腿踹張雪機車惹怒中國網(wǎng)友 張雪:很正常+很干凈

      爭議?對手疑似伸腿踹張雪機車惹怒中國網(wǎng)友 張雪:很正常+很干凈

      風過鄉(xiāng)
      2026-04-20 06:45:19
      斯諾克世錦賽:丁俊暉送大禮!吉爾伯特被罰12分逆轉(zhuǎn),僅2-3落后

      斯諾克世錦賽:丁俊暉送大禮!吉爾伯特被罰12分逆轉(zhuǎn),僅2-3落后

      劉姚堯的文字城堡
      2026-04-19 19:17:56
      學術(shù)不端是學術(shù)晉級的最快捷徑

      學術(shù)不端是學術(shù)晉級的最快捷徑

      必記本
      2026-04-19 22:50:38
      王金平力挺了鄭麗文后,連勝文發(fā)聲了,竟主動為朱立倫證實1件事

      王金平力挺了鄭麗文后,連勝文發(fā)聲了,竟主動為朱立倫證實1件事

      瀲滟晴方DAY
      2026-04-20 06:55:07
      研究發(fā)現(xiàn):脂肪肝人若常補B族維生素,用不了多久,身體或有3好處

      研究發(fā)現(xiàn):脂肪肝人若常補B族維生素,用不了多久,身體或有3好處

      小胡軍事愛好
      2026-03-05 20:56:45
      季后賽首秀35分!就在今天,一項鄧肯保持的NBA紀錄被文班打破了

      季后賽首秀35分!就在今天,一項鄧肯保持的NBA紀錄被文班打破了

      世界體育圈
      2026-04-20 12:45:16
      魏建軍提議私家車10年后再年檢,用OBD和車聯(lián)網(wǎng)替代實地檢測

      魏建軍提議私家車10年后再年檢,用OBD和車聯(lián)網(wǎng)替代實地檢測

      快科技
      2026-04-19 08:19:03
      為什么全國人民都在拒接電話?

      為什么全國人民都在拒接電話?

      黯泉
      2026-04-18 17:00:56
      中國永遠的校長,死于1962年

      中國永遠的校長,死于1962年

      最愛歷史
      2024-05-20 13:30:17
      隨著巴黎圣日耳曼爆大冷門1-2,法甲最新積分榜出爐:爭冠白熱化

      隨著巴黎圣日耳曼爆大冷門1-2,法甲最新積分榜出爐:爭冠白熱化

      側(cè)身凌空斬
      2026-04-20 07:55:12
      上海長征醫(yī)院浦東院區(qū)啟用,緊鄰9號線曹路站!明后天推出院內(nèi)大型義診

      上海長征醫(yī)院浦東院區(qū)啟用,緊鄰9號線曹路站!明后天推出院內(nèi)大型義診

      上觀新聞
      2026-04-20 11:18:09
      前英超裁判:加布里埃爾得感謝哈蘭德,后者順勢倒下就是紅牌

      前英超裁判:加布里埃爾得感謝哈蘭德,后者順勢倒下就是紅牌

      懂球帝
      2026-04-20 08:00:07
      字母哥離隊倒計時!四隊瘋搶,雄鹿超市即將開張

      字母哥離隊倒計時!四隊瘋搶,雄鹿超市即將開張

      茅塞盾開本尊
      2026-04-20 12:22:09
      于海青:為何說廣東黃坤明書記不斷下基層讓企業(yè)信心滿滿?

      于海青:為何說廣東黃坤明書記不斷下基層讓企業(yè)信心滿滿?

      于海青
      2026-04-19 19:54:18
      2026-04-20 12:59:00
      Ai學習的老章 incentive-icons
      Ai學習的老章
      Ai學習的老章
      3334文章數(shù) 11137關(guān)注度
      往期回顧 全部

      科技要聞

      藍色起源一級火箭完美回收 客戶衛(wèi)星未入軌

      頭條要聞

      媒體:伊朗剛說不談 美國立即開打

      頭條要聞

      媒體:伊朗剛說不談 美國立即開打

      體育要聞

      七大獎項候選官宣!文班或全票DPOY

      娛樂要聞

      鹿晗生日上熱搜,被關(guān)曉彤撕下體面

      財經(jīng)要聞

      月之暗面IPO迷局

      汽車要聞

      把天門山搬進廠?開仰望U8沖上45度坡的那刻 我腿軟了

      態(tài)度原創(chuàng)

      游戲
      健康
      藝術(shù)
      本地
      公開課

      異世界自動化模擬經(jīng)營游戲《退休勇者當廠長》現(xiàn)已正式上架Steam

      干細胞抗衰4大誤區(qū),90%的人都中招

      藝術(shù)要聞

      王羲之《換鵝帖》尚在人間,驚艷無比!

      本地新聞

      12噸巧克力有難,全網(wǎng)化身超級偵探添亂

      公開課

      李玫瑾:為什么性格比能力更重要?

      無障礙瀏覽 進入關(guān)懷版