網易首頁 > 網易號 > 正文 申請入駐

MiniMax-M2.7 開源了,本地部署指南

0
分享至

MiniMax-M2.7 上月推出,時隔半個多月,剛剛開源了

這次開源,可以發現很多更細節的內容,不過我就不過多介紹了

因為我簡單測試之后,沒達到我的預期,主要介紹一下本地部署相關的內容吧

我是用的 Nvidia 提供的線上測試,用例依然是閱讀理解+svg 代碼生成 + 審美

結果是比較跌眼睛的,甚至感覺有 Qwen3 的水平

與 GLM-5.1 半斤八兩

它倆都遠不及 Qwen3.6 Plus(僅代表本人觀點,僅此測試用例感受)


簡介

M2.7 的核心亮點:

  • 模型自我進化 :M2.7 能自主更新記憶、構建技能、改進學習流程,經過 100+ 輪自主優化,性能提升 30%

  • 專業軟件工程 :SWE-Pro 達到 56.22%,與 GPT-5.3-Codex 持平,生產環境事故恢復時間壓縮到 3 分鐘以內

  • 專業辦公能力 :GDPval-AA ELO 1495,開源模型最高,Word/Excel/PPT 高保真多輪編輯

  • 原生 Agent Teams :支持多智能體協作,角色穩定、自主決策

M2.7 模型技術規格藍圖

代碼能力號稱媲美 GPT-5.3-Codex


M2.7 基準性能全景 部署方式:生態全面開花 M2.7 部署生態全景

成本是 230GB 起步,我覺得 2 張 H200 可能都勉強,官方建議至少 4 張 H200


目前量化版本應該都在加急中,截止此刻,還都只創建好了文件夾而已

按照以往 unSloth 的戰績,壓縮到幾十 GB 不是難事


MLE Bench Lite 自我進化性能 Ollama

Ollama 最新版 已經有 minimax-m2.7:cloud 可以免費使用了



M2.7 已登錄 Ollama 云端,商業許可可用

# 與 OpenClaw 一起使用
ollama launch openclaw --model minimax-m2.7:cloud


# 直接聊天
ollama run minimax-m2.7:cloud
Ollama 支持 MiniMax M2.7

這里要注意,目前 Ollama 上的 M2.7 走的是云端推理(:cloud 標簽),原因是 230B 參數的 MoE 模型本地跑起來需要的顯存實在太大

等后續量化版出來,應該會有本地可跑的版本

vLLM

vLLM 提供了 Day-0 支持,是目前最成熟的部署方案之一

# 基礎部署(4 卡 H200/H100/A100)
vllm serve MiniMaxAI/MiniMax-M2.7 \
--tensor-parallel-size 4 \
--tool-call-parser minimax_m2 \
--reasoning-parser minimax_m2 \
--compilation-config '{"mode":3,"pass_config":{"fuse_minimax_qk_norm":true}}' \
--enable-auto-tool-choice \
--trust-remote-code


# 8 卡部署(DP+EP 模式)
vllm serve MiniMaxAI/MiniMax-M2.7 \
--data-parallel-size 8 \
--enable-expert-parallel \
--tool-call-parser minimax_m2 \
--reasoning-parser minimax_m2 \
--enable-auto-tool-choice

Docker 一鍵啟動

docker run --gpus all \
-p 8000:8000 \
--ipc=host \
-v ~/.cache/huggingface:/root/.cache/huggingface \
vllm/vllm-openai:minimax27 MiniMaxAI/MiniMax-M2.7 \
--tensor-parallel-size 4 \
--tool-call-parser minimax_m2 \
--reasoning-parser minimax_m2 \
--enable-auto-tool-choice \
--trust-remote-code

vLLM 支持 NVIDIA 和 AMD 兩大平臺:

  • NVIDIA :4×H200/H100/A100 張量并行,或 8 卡 DP+EP/TP+EP 模式

  • AMD :2× 或 4× MI300X/MI325X/MI350X/MI355X,支持 AITER 加速

系統需求:權重需要約 220GB 顯存,每 100 萬上下文 token 額外需要 240GB。

SGLang

SGLang 同樣提供了 Day-0 支持

sglang serve \
--model-path MiniMaxAI/MiniMax-M2.7 \
--tp 4 \
--tool-call-parser minimax-m2 \
--reasoning-parser minimax-append-think \
--trust-remote-code \
--mem-fraction-static 0.85

SGLang 的一個特點是支持 Thinking 模式,通過 minimax-append-think 解析器,可以把思考過程和最終內容分開展示。

快速測試部署是否成功:

curl http://localhost:30000/v1/chat/completions \
-H "Content-Type: application/json" \
-d '{
"model": "MiniMaxAI/MiniMax-M2.7",
"messages": [
{"role": "system", "content": [{"type": "text", "text": "You are a helpful assistant."}]},
{"role": "user", "content": [{"type": "text", "text": "Who won the world series in 2020?"}]}
]
}'

M2.7 在 SGLang 上的推薦推理參數:temperature=1.0top_p=0.95,top_k=40

NVIDIA 加持

NVIDIA 這次給了 MiniMax 很大的支持力度


NVIDIA 支持 MiniMax M2.7

GPU 加速端點:在 build.nvidia.com/minimaxai/minimax-m2.7 可以免費試用 M2.7

推理優化:NVIDIA 和開源社區合作,為 vLLM 和 SGLang 做了兩個關鍵優化:

  1. QK RMS Norm Kernel :將計算和通信操作融合到單個內核中,減少了內核啟動和顯存讀寫開銷

  2. FP8 MoE :集成了 TensorRT-LLM 的 FP8 MoE 模塊化內核,專門針對 MoE 模型優化

結果非常驚人——在 NVIDIA Blackwell Ultra GPU 上:

  • vLLM 吞吐量提升 2.5 倍 (一個月內實現)

  • SGLang 吞吐量提升 2.7 倍 (一個月內實現)

NemoClaw:NVIDIA 提供了開源參考棧 NemoClaw,一鍵部署 OpenClaw 持續運行助手

微調支持:通過 NeMo AutoModel 庫進行后訓練,支持 EP + PP 訓練方案。NeMo RL 庫還提供了 GRPO 強化學習的樣例配方(8K 和 16K 序列長度)

微調配方:

# NeMo AutoModel 微調配方
https://github.com/NVIDIA-NeMo/Automodel/blob/main/examples/llm_finetune/minimax_m2/minimax_m2.7_hellaswag_pp.yaml


# 分布式訓練文檔
https://github.com/NVIDIA-NeMo/Automodel/discussions/1786
Transformers

也可以用 HuggingFace Transformers 直接加載模型,參考 Transformers 部署指南 (huggingface.co/MiniMaxAI/MiniMax-M2.7/blob/main/docs/transformers_deploy_guide.md)

ModelScope

國內用戶也可以從 ModelScope(modelscope.cn/models/MiniMax/MiniMax-M2.7) 下載模型權重

Tool Calling 和 Thinking 模式

M2.7 同時支持工具調用和思考模式,這讓它在 Agent 場景下更加靈活。

工具調用示例(以 SGLang 為例):

from openai import OpenAI

client = OpenAI(
base_url="http://localhost:30000/v1",
api_key="EMPTY"
)

tools = [
{
"type": "function",
"function": {
"name": "get_weather",
"description": "Get the current weather for a location",
"parameters": {
"type": "object",
"properties": {
"location": {
"type": "string",
"description": "The city name"
}
},
"required": ["location"]
}
}
}
]

response = client.chat.completions.create(
model="MiniMaxAI/MiniMax-M2.7",
messages=[
{"role": "user", "content": "What's the weather in Beijing?"}
],
tools=tools
)

message = response.choices[0].message
if message.tool_calls:
for tool_call in message.tool_calls:
print(f"Tool Call: {tool_call.function.name}")
print(f" Arguments: {tool_call.function.arguments}")

Thinking 模式:通過 ... 標簽把思考過程包裹在內容中。在流式輸出場景下,可以實時解析這些標簽,把思考和最終回答分開展示。

快速上手

如果你想快速體驗 M2.7,最簡單的方式:

方式一:API 調用

訪問 platform.minimax.io 注冊開發者賬號,通過 API 調用。

方式二:MiniMax Agent

訪問 agent.minimax.io 直接在線對話。

方式三:Ollama 云端

ollama run minimax-m2.7:cloud

方式四:NVIDIA 免費端點

訪問 build.nvidia.com/minimaxai/minimax-m2.7 在瀏覽器中直接測試。

.7

制作不易,如果這篇文章覺得對你有用,可否點個關注。給我個三連擊:點贊、轉發和在看。若可以再給我加個,謝謝你看我的文章,我們下篇再見!

特別聲明:以上內容(如有圖片或視頻亦包括在內)為自媒體平臺“網易號”用戶上傳并發布,本平臺僅提供信息存儲服務。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

相關推薦
熱點推薦
清北、浙大集體“退群”!多所985取消綜評招生,張雪峰一語成讖

清北、浙大集體“退群”!多所985取消綜評招生,張雪峰一語成讖

妍妍教育日記
2026-04-26 08:00:15
打起來了!伊朗不宣而戰,白宮宣布撤僑,美航母再次出動

打起來了!伊朗不宣而戰,白宮宣布撤僑,美航母再次出動

泠泠說史
2026-04-25 18:26:59
4月28日正式開播!中央八套黃金檔好劇來襲!全員演技在線

4月28日正式開播!中央八套黃金檔好劇來襲!全員演技在線

琴琴有氧運動
2026-04-26 14:30:35
上海地鐵互毆最新后續!雙雙被行拘,客服發聲,知情人曝更多細節

上海地鐵互毆最新后續!雙雙被行拘,客服發聲,知情人曝更多細節

愛寫的櫻桃
2026-04-26 21:38:12
黑奴貿易里,將黑人扒光并讓男女擠一起,只是為了省錢省事嗎

黑奴貿易里,將黑人扒光并讓男女擠一起,只是為了省錢省事嗎

小豫講故事
2026-04-18 06:00:12
伊朗議會要員:所有通過霍爾木茲海峽的船只必須繳納通行費

伊朗議會要員:所有通過霍爾木茲海峽的船只必須繳納通行費

新華社
2026-04-26 22:27:02
沒時間了,小哈梅開始放權,伊朗最多堅持60天,中方給出強烈預警

沒時間了,小哈梅開始放權,伊朗最多堅持60天,中方給出強烈預警

阿離家居
2026-04-26 19:56:13
喬戈里峰無人成功攀登

喬戈里峰無人成功攀登

新科文
2026-04-24 17:01:34
34歲女神裁判波娃抽煙照曝光!大量中國男球迷脫粉,濾鏡碎了

34歲女神裁判波娃抽煙照曝光!大量中國男球迷脫粉,濾鏡碎了

喜歡歷史的阿繁
2026-04-24 18:13:27
回顧陜西男子3次報警,民警拒不派警,致兩家四口被殺,法院判了

回顧陜西男子3次報警,民警拒不派警,致兩家四口被殺,法院判了

談史論天地
2026-04-25 13:10:12
伊朗對中國的誤會

伊朗對中國的誤會

求實處
2026-04-24 23:57:32
震驚!東方甄選員工集體辭職要挾俞敏洪,被網友直言“蠢出天際”

震驚!東方甄選員工集體辭職要挾俞敏洪,被網友直言“蠢出天際”

火山詩話
2026-04-26 07:09:07
14歲被送上導演的床,17歲拍全裸寫真,被操控半生,如今怎樣了

14歲被送上導演的床,17歲拍全裸寫真,被操控半生,如今怎樣了

喜歡歷史的阿繁
2026-04-26 11:01:11
31歲確診癌癥,洗澡時才發現!這種癌癥正悄悄“盯上”年輕人……

31歲確診癌癥,洗澡時才發現!這種癌癥正悄悄“盯上”年輕人……

BRTV新聞
2026-04-21 19:11:57
往返400公里,京冀跨省通勤者的生活賬本

往返400公里,京冀跨省通勤者的生活賬本

新京報
2026-04-23 07:52:18
賣光主力,連替補也不放過,花600萬請個“常駐醫院”的頂薪先生

賣光主力,連替補也不放過,花600萬請個“常駐醫院”的頂薪先生

畫夕
2026-04-26 20:59:22
穆杰塔巴真實傷勢曝光,遠遠超出外界想象,難怪伊朗人都見不到他

穆杰塔巴真實傷勢曝光,遠遠超出外界想象,難怪伊朗人都見不到他

阿天愛旅行
2026-04-26 17:57:11
不敵后輩趙心童無緣世錦賽八強,丁俊暉的“臺球青春”尚未到終章

不敵后輩趙心童無緣世錦賽八強,丁俊暉的“臺球青春”尚未到終章

上觀新聞
2026-04-26 21:26:10
美國人為啥不買中國車?福特CEO:自己開中國車,讓美國人買破車

美國人為啥不買中國車?福特CEO:自己開中國車,讓美國人買破車

賤議你讀史
2026-04-25 10:20:03
中國強硬應對,中韓朝俄四國聯合抗議,形成四對一局面

中國強硬應對,中韓朝俄四國聯合抗議,形成四對一局面

半身Naked
2026-04-26 01:09:38
2026-04-26 23:00:49
Ai學習的老章 incentive-icons
Ai學習的老章
Ai學習的老章
3353文章數 11139關注度
往期回顧 全部

科技要聞

漲價浪潮下,DeepSeek推動AI“價格戰”

頭條要聞

以色列政壇重大變局 內塔尼亞胡迎來勁敵

頭條要聞

以色列政壇重大變局 內塔尼亞胡迎來勁敵

體育要聞

森林狼3比1掘金:逆境中殺出了多孫穆?!

娛樂要聞

僅次《指環王》的美劇,有第二季

財經要聞

事關新就業群體,中辦、國辦發文

汽車要聞

預售19.38萬元起 哈弗猛龍PLUS七座版亮相

態度原創

數碼
家居
親子
藝術
教育

數碼要聞

MOREFINE上架G2外置顯卡,內置RTX 5060 Ti

家居要聞

自然肌理 溫潤美學

親子要聞

這西瓜遇到他,可真的倒霉啊

藝術要聞

總投資35億!汾酒集團太原的地標大樓,呈現白酒文化!

教育要聞

加速社會與數字斷連:為了“上岸”身不由己

無障礙瀏覽 進入關懷版