MiniMax M2 是 開源、代理原生 MiniMax 發布的大型語言模型 (LLM) 2025 年 10 月 27 日它是專門為此而設計的。 編碼 代理商工作流程 (工具調用、多步驟自動化),優先級 低延遲 經濟有效 在提供服務的同時,展現出強大的推理能力和工具使用能力。
主要特徵
強調 - 編碼專業化, 代理商工作流程, 低主動參數佔用空間, 長期情境支持, OpenAI相容API. MiniMax 位置 Minimax M2 作為一個 快速、部署友好的 MoE 模型 適用於多步驟代理、程式碼產生和修復、終端/IDE 工作流程和工具呼叫。
要點(簡述):
- 建築: 具有非常大的總參數數量和少量參數的專家混合模型(MoE) 活性 每個前向傳遞的參數集。
- 激活足跡: ~10億個活躍參數 (每個代幣)
- 總參數(報告): 報告之間 約200億至230億 取決於來源/指標(見 技術細節).
- 上下文視窗: 企業級長上下文; 204,800令牌 最大上下文。
- 主要治療方式: 文字(支援工具呼叫/函數呼叫)。
- 原生代理:專為多步驟工具呼叫(shell、瀏覽器、python 解釋器、MCP 工具)而設計。
- 編碼重點針對多檔案編輯、運行修復循環和 CI/IDE 任務進行了最佳化。
技術細節(架構和規格)
建築學 - 混合式專家 (MoE): Minimax M2 API 使用 MoE 策略,因此模型可以具有 總參數數量非常大 而每個推理步驟僅激活一小部分。這提高了 計算效率, 吞吐量和 每個代幣的成本 用於互動式代理和編碼循環。
精度與量化—— 模型檔案和提供者堆疊列出了 FP32/BF16 和 FP8 格式以及多個量化建置(safetensors、FP8/E4M3 等),從而實現了本地部署和效率權衡。
上下文和 I/O — 已部署的提供者發布 204,800令牌 支援上下文相關功能和較大的最大輸出設定。 M2 是 純文字 目前(中國發布的許多開放權重版本都強調了文字/代理功能,而多模式仍然是其他版本的領域)。
運行時建議/特殊說明 — Minimax M2 API 使用 “交錯思維” 將模型內部推理過程封裝成輸出格式 <think>...</think> 塊。 MiniMax 的請求是保持思考內容的完整性,並將其以歷史上下文的形式傳遞回去,以保持多輪代理工作流程的效能。
基準性能
綜合智慧與代理基準 — 人工分析的獨立基準測試報告顯示 **MiniMax-M2 在同類輕量級車型中取得了最佳的智慧指數。**並名列其中 頂級開源模型 綜合智力指標,特別是在 工具使用、指令遵循和代理任務人工分析突顯了該模型的 效率 (活躍參數很少)是其排名的關鍵驅動因素。

Minimax M2 表演 編碼和代理套件方面取得了優異的成績 (終端基準測試、軟體工程基準測試、瀏覽計算、即時程式碼基準測試等類型的任務),其架構和啟動預算有利於規劃→執行→驗證循環(編譯/運行/測試週期、多文件編輯和工具鏈)。

比較:MiniMax M2 與其他當代型號
與公開等級的對手(DeepSeek、Qwen3、Kimi 等)競爭 — Minimax M2 呈現為 特別高效 其活躍參數預算(≈10億)使其具有強大的智慧/活躍參數比率;其他開放模型可能具有更高的活躍參數數量,但總參數數量相似或更高。
針對商業前沿模型(OpenAI / Anthropic / Google / xAI)— 報告地點 M2 低於頂級商業模型 以某些通用指標衡量 有競爭力或領先 在許多智能體和編碼基準測試中,它的價格都非常出色。
成本與速度的權衡—— 其每個代幣的成本僅為 Anthropic Claude Sonnet 的 8%,但速度卻快約兩倍。
局限性和風險
局限性—— 冗長(高令牌使用率), 純文字模式, 特定任務的弱點以及常見的LLM風險(幻覺、過度自信、資料集偏差)。人工分析和MiniMax都指出,即使M2在智慧體和編碼工作流程方面表現出色,它在某些開放式任務上的表現可能不如一些大型通用模型。因為它是基於MoE, 部署注意事項 (專家級的路由、量化和推理框架)至關重要。
操作注意事項—— Minimax M2 “ 交錯思維 格式要求保留特殊訊息 <think>...</think> 為了獲得最佳效能,需要保留歷史記錄中的令牌;刪除這些內容可能會降低代理程式的效能。另外,因為 Minimax M2 冗長,每項任務的成本是兩者的函數 每個代幣的價格 產生的代幣總數.
主要用例
- 代理編排與長工作流程 — 多步驟工具鏈, 瀏覽→檢索→執行循環, 錯誤恢復和 證據可追溯性 在代理運行中。
- 開發者效率提升與編碼助理 — 編譯-運行-測試循環, 多文件編輯, 經過測試驗證的修復和 IDE集成 (有 Claude Code、Cursor、Codex、Grok CLI 等範例)。
- 高吞吐量代理集群/生產機器人 — 哪裡 每次推斷的成本 並發 此外,M2 較低的啟動參數佔用空間可以降低基礎設施成本。
如何致電 Minimax M2 來自 CometAPI 的 API
minimax-m2 CometAPI 中的 API 定價,比官方價格便宜 20%:
- 輸入代幣:0.24萬美元代幣
- 輸出代幣:0.96 美元/百萬代幣
所需步驟
- 登錄到 cometapi.com。如果您還不是我們的用戶,請先註冊。
- 登錄你的 CometAPI 控制台.
- 取得介面的存取憑證API key。在個人中心的API token處點選“新增Token”,取得Token金鑰:sk-xxxxx並提交。

使用方法
- 選擇「minimax-m2」端點傳送API請求並設定請求體。請求方法和請求體資訊可參考我們網站的API文件。為了方便您測試,我們網站也提供了Apifox測試工具。
- 代替使用您帳戶中的實際 CometAPI 金鑰。
- 將您的問題或請求插入內容欄位 - 這是模型將會回應的內容。
- 。處理 API 回應以取得產生的答案。
CometAPI 提供完全相容的 REST API,以實現無縫遷移。關鍵細節如下: API 文件:
- 基本網址: https://api.cometapi.com/v1/chat/completions
- 型號名稱: “
minimax-m2“ - 驗證:
Bearer YOUR_CometAPI_API_KEY頭 - 內容類型:
application/json.
API 整合和範例
下面是一個 蟒蛇 程式碼片段示範如何透過 CometAPI 的 API 呼叫 GLM-4.6。替換 <API_KEY> <PROMPT> 因此:
import requests
API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer <API_KEY>",
"Content-Type": "application/json"
}
payload = {
"model": "minimax-m2",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "<PROMPT>"}
],
"max_tokens": 512,
"temperature": 0.7
}
response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())
也可以看看 克勞德俳句 4.5 API
