如何存取和使用 Minimax M2 API

CometAPI
AnnaDec 2, 2025
如何存取和使用 Minimax M2 API

MiniMax M2 是一款新一代大型語言模型,專為智慧體工作流程和端對端編碼而最佳化。 MiniMax 已在 Hugging Face 上公開發布了 MiniMax-M2 模型及其權重;它是一款 MoE(稀疏)模型,擁有非常大的總參數預算,但每個詞元的活躍集卻小得多,並且支援非常大的上下文(超過 200 萬個詞元)。

Minimax M2 的設計確實非常出色,我相信開發者們都渴望體驗它的各項功能。以下是一些使用 M2 的解決方案,以及一些可供參考的進階技巧。對於 Minimax M2 的使用,我推薦使用 CometAPI。本文將解釋 M2 的概念及其主要特性,比較託管 API 訪問和自託管 API 訪問,介紹定價和調用模型的實際示例,最後還會介紹一些高級優化和工具技巧,以實現生產級性能和成本效益。

MiniMax M2 是什麼?

MiniMax M2 是 MiniMax 的最新旗艦產品:一款開放權重、混合專家 (MoE) 風格的文字模型,專為「智能體」工作流程(工具使用、程式碼編寫、多步驟推理)和長上下文處理而設計。公開報告和社群文件將 M2 描述為一個非常龐大的模型(在 MoE 設計下總共有數千億個參數,每次迭代使用的活動參數數量則少得多),旨在實現高吞吐量和成本效益,同時支援處理複雜多文件、多工具任務的大型上下文視窗。獨立基準測試人員和配方維護者已迅速將 MiniMax M2 添加到 vLLM/Ollama/其他推理堆疊中,MiniMax 也發布了該模型及其智慧體工具的 API 和開發者文件。

M2為何重要: MiniMax M2 定位為建構智慧體系統(例如需要呼叫工具、編輯檔案、維護長期上下文並快速進行推理的助手)的組織的理想選擇。早期分析表明,在編碼、數學運算和工具使用等常用基準測試中,其性價比非常高。

核心特性和架構

專家混合模型,參數總數多但實際佔用空間小

據報道,M2 包含極其龐大的參數總數(據報導約為數千億),而每次前向傳播僅激活數量少得多的參數——MiniMax 發布資料重點指出總參數 230B活動參數佔用量級約 10B 用於推理。這種權衡使得 M2 能夠以相對較低的單令牌計算量和延遲實現高能力(典型的 MoE 優勢:高模型容量,較低的激活成本)。

長上下文支持

MiniMax 宣稱其 M2 版本支援超大上下文視窗(面向企業級長上下文)。發布資料中的一些平台文件指出,該版本支援極其龐大的 token 視窗(數萬到數十萬個 token),這對於多文件編碼任務、長代理追蹤以及檢索增強型流程非常有用。 (如果您打算使用超長上下文,請務必測試提供者的實際限制:即使模型架構支援超大窗口,提供者有時也會設定部署或工程限制。)

代理原生工具和編碼重點

MiniMax M2 專為工具呼叫和多步驟自動化(shell/瀏覽器/Python 工具整合)以及編碼工作流程(多檔案編輯、運行-修復循環、基於測試的修復)而專門最佳化。與通用聊天模型相比,它能提供更出色的零樣本工具編排行為,並在多步驟開發人員任務中實現更完善的「後續執行」。

開發者如何使用和存取 MiniMax M2?

您有兩種主要的操作路徑: 使用託管 API (快速、低摩擦)或 自託管 此模型(控制力更強,在大規模應用或出於隱私考慮時邊際成本可能更低)。以下是兩種模型的實用操作步驟。

選項 A — 託管 API(推薦給大多數團隊)

彗星API 自曝 MiniMax M2 它基於兼容 OpenAI 的 HTTP 接口,因此您可以使用與現有聊天/補全模式相同的模式來呼叫模型——只需註冊即可。 sk-... 使用 API 金鑰,將您的用戶端指向 CometAPI 的基本 URL,並要求該 API。 minimax-m2 CometAPI 提供了一個實驗環境、免費試用代幣,並且相比供應商的直接託管價格,還有價格折扣,這使其成為快速原型設計和生產遷移的理想選擇。

何時選擇此選項: 快速整合、小型團隊、無需管理推理基礎架構即可進行生產部署,或當您重視自動模型更新和監控時。

步驟(託管 API):

  1. 在 CometAPI 上建立帳戶並登入。
  2. 在控制台(控制台/令牌)中,建立或複製 API 令牌—密鑰格式如下: sk-XXXXX請將此資訊儲存在您的金鑰管理員或環境變數中;不要提交。 CometAPI 為許多帳戶提供數量有限的免費測試令牌。
  3. CometAPI 的 HTTP 介面與 OpenAI 相容。請更改您的客戶端。 基本 URLhttps://api.cometapi.com/v1/chat/completions 然後使用 OpenAI 風格的 JSON 有效負載(例如, model, messages, max_tokens, temperature這意味著大多數 OpenAI SDK 程式碼只需稍作修改即可運行。 api_base / base_url.
  4. 選擇模型字串:使用 CometAPI 發布的 MiniMax M2 模型名稱——通常 minimax-m2 (CometAPI 模型頁面展示了該模型及其使用範例)。
  5. 打電話 — 一個通用的 curl 範例(OpenAI 風格的 JSON)如下所示:
curl -X POST "https://api.cometapi.com/v1/chat/completions" \
  -H "Authorization: Bearer $CometAPI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "minimax-m2",
    "messages": [
      {"role":"system","content":"You are a helpful coding assistant."},
      {"role":"user","content":"Refactor this function to be async..."}
    ],
    "max_tokens": 1024,
    "temperature": 0.2
  }'

注意:請將端點和參數名稱替換為 CometAPI API 文件中的確切值;MiniMax 在其開發者入口網站中記錄了與 OpenAI 相容的模式和代理原語。

常見的模式是:

  1. 工作計畫 — 制定分步驟計畫(例如,取得資料、呼叫 Web、執行測試)。
  2. 演員 — 依照計畫的要求呼叫工具(API、shell、程式碼執行)。
  3. 驗證 — 執行測試或檢查,如果失敗則循環回傳。

MiniMax M2 的訓練和配置強調這些交錯,因此,當給定框架時,模型往往會產生格式良好的工具呼叫和結構化的輸出。

託管 API 整合技巧

  • 使用 在支援的情況下,減少用戶感知延遲並允許部分輸出處理。
  • 實施 速率限制和重試邏輯 針對瞬態故障。
  • 代幣會計建立日誌記錄功能,追蹤每個請求的輸入與輸出令牌,以便監控支出並設定警報。

選項 B — 自架(當您需要隔離、自訂基礎架構或非常高的持續吞吐量時建議使用)

何時選擇此選項: 合規性/隱私需求(資料駐留)、高吞吐量(攤銷基礎設施可能更便宜)或對堆疊進行自訂修改。

需求與生態系統

  • 硬件: MoE模型的活動參數佔用空間可能很小(10B),但實體模型檔案、專家表和路由邏輯會對記憶體/I/O造成影響。生產環境中通常需要大容量GPU記憶體(A100/H100級或多GPU叢集)、用於模型分片的高速NVMe固態硬碟以及高頻寬互連(NVLink/InfiniBand)。卸載策略和量化可以降低這些需求。
  • 推理棧: vLLM、Ollama 和其他社群技術堆疊都提供了 M2 的配置方案和文件。 vLLM 適用於高吞吐量和多租戶服務;Ollama 則提供了更便利的本機開發流程。
  • 容器化與編排: 將模型伺服器打包到容器(Docker)中,並使用 Kubernetes / Autoscaler 在生產環境中執行。

基本自架流程(進階)

  1. 獲取重量 (請遵守許可和使用條款)可從 MiniMax 官方發行版或鏡像站點取得。由於 MiniMax M2 重量是開源的,社群會提供打包和配方。
  2. 選擇推理引擎 — 對於高吞吐量應用,可以使用 vLLM;對於本機/測試應用,可以使用像 Ollama 這樣的執行環境。安裝並配置引擎。
  3. 服務於模型 — 使用模型路徑執行 vLLM 或選定的伺服器,並調整 GPU/並行設定。
  4. 伺服器前端 使用您自己的 API 網關,該網關能夠反映您的應用程式所需的標頭/語義(例如,OpenAI 風格或自訂 RPC)。新增身份驗證、日誌記錄和速率限制。

vLLM 和類似的運行時環境都針對吞吐量和記憶體效率進行了最佳化。 MiniMax 發布了 vLLM 的配方和範例配置,用於運行具有 GPU 記憶體分區和高效調度的 M2 程式。範例(概念圖):

# Example: launch vLLM server (stylized)

vllm_server --model-name MiniMaxAI/MiniMax-M2 \
            --num-gpus 4 \
            --dtype fp16 \
            --max-seq-len 8192
# Client snippet to call vLLM server

from vllm import Client
client = Client("http://localhost:8080")
resp = client.generate("Implement a Unix-style recursive directory listing in Python.")
print(resp.get_completions().text)

從成本角度來看,託管式 API 與自架式 API 的比較

託管式 API — 優缺點

  • 優點: 簡單的計費方式(按代幣計費)、可控的吞吐量、服務等級協定 (SLA)、更低的工程難度。已發布的代幣價格對於許多用例來說都非常低(是實驗的理想起點)。
  • 缺點: 每個代幣的定價仍然隨使用量而變化;輸出代幣的計費速度更快;對延遲/吞吐量調整的控制更少,並且對專用路由或私人資料處理存在供應商鎖定。

自託管——優缺點

  • 優點: 一次性支付基礎設施和維運成本(GPU + 基礎設施),即可掌控量化、批次和吞吐量調優;對於超高容量的穩定工作負載,可望降低每個代幣的成本。像 M2 這樣的 MoE 模型,如果採用正確的平行化和量化策略,每個代幣的服務成本可以更低。
  • 缺點: 前期投入資金及維運成本較高:叢集設計(H100/A100/A800/H200)、網路配置、平行處理專家級配置、負載平衡。平行處理專家級配置/vLLM方案的調優難度較大。此外,如果您需要嚴格的維護/正常運作時間要求,託管服務總體成本可能仍然更低。

簡單決策啟發式

  • 如果你期望 低至中等流量 或想要快速上市:從託管 API 開始。
  • 如果你期望 持續、極高的吞吐量 (每天數百萬個代幣),並且可以配備營運人員,運行成本模型,比較託管的按代幣計費與估計的基礎設施/運營攤銷成本;MoE 自託管在規模化時往往變得很有吸引力。

價格和商業選項

MiniMax 在其平台定價頁面上列出了每個代幣的價格(例如,發布過程中公佈的價格): 輸入代幣 ≈ 每百萬個代幣 0.3 美元 產出代幣 ≈ 每百萬個代幣 1.2 美元 在他們的平台上。

託管費用與隱藏費用: 如果您使用託管 API,則只需支付公開的 API 費用,即可避免在維運和 GPU 的資本支出。如果您選擇自行託管,則需要承擔 GPU、儲存、網路和工程成本:MoE 模型需要特定的運行時支持,並且其記憶體/I/O 配置可能與密集型模型不同(請參閱上文「自行託管」部分)。

CometAPI for MiniMax M2 的定價

CometAPI 在其產品頁面上列出了特定型號的價格。以 MiniMax M2 為例,CometAPI 的頁面提供了範例價格以及相對於供應商的促銷折扣:

  • 輸入標記: 每百萬個代幣約0.24美元
  • 輸出令牌: 每百萬個代幣約0.96美元
  • CometAPI 會宣傳折扣(例如,某些商品頁面會標明「官方價格約八折」),並且經常會為試用帳戶提供免費代幣。在進行大規模運行之前,務必在模型頁面和您的帳戶結算頁面核實價格。

實用說明: CometAPI 會根據透過其閘道路由的請求向您收費。這意味著您可以獲得透過 CometAPI 呼叫的模型的集中式計費和使用情況報告(這對多模型團隊來說很方便)。

提示和訊息協定(實用範本)

以下是可複製/貼上的模板,用於建立一個強大的 ReAct 式協定。它們是 OpenAI 風格的聊天訊息(可與 CometAPI 或任何與 OpenAI 相容的網關搭配使用)。

系統指令(保持模型為代理模式)

System: You are an agentic assistant. For each turn, follow this strict structured format in the assistant output:

1) THOUGHT: a short plan or reasoning step (internal).
2) ACTION: one of:
- CALL_TOOL(name, args_json)  // request me to run a tool
- FINAL_ANSWER: <short text>  // when finished
3) RATIONALE: one-sentence justification for the action (optional).

Only include one ACTION per assistant reply. Do not output tool results. Wait for the tool result (OBSERVATION) from the environment and then continue. Use concise tokens to reduce cost.

助手範例(模型傳回的內容)

Assistant -> (to server):

THOUGHT: Need latest release notes to verify API changes.
ACTION: CALL_TOOL("web_search", {"query":"MiniMax M2 release notes Oct 2025"})
RATIONALE: Confirm model behavior for agentic tool schema.

環境/伺服器將工具輸出作為使用者/系統訊息傳回使用者/系統訊息。

System: TOOL_RESULT for CALL_TOOL("web_search", ...):
OBSERVATION: {"top_result_title":"MiniMax M2 v1.2 release notes", "snippet":"...agent APIs updated..."}

然後模型繼續進行另一個想法/行動。

最終面向使用者的答案(經核實後)

Assistant -> (to user):

FINAL_ANSWER: "MiniMax M2 now supports function-style tool calls. To call it, use ... ."

先進技術(提高穩健性和功能)

1)思維樹和分支搜索

與其採用單一的線性思維路徑,不如並行展開多個候選行動/計劃,對其進行評估(透過模型或評分函數),並探索最有希望的分支。適用於任務難度較高的情況(複雜的規劃、謎題、具有眾多選項的多步驟編碼)。

  • 保持部分解決方案的多樣性。
  • 以啟發式方法對分支進行評分:事實查核、工具成功率或預測效用。
  • 修剪低分枝以控製成本。

2)自洽性和整體性

產生多個獨立的解算軌跡(不同溫度、種子)。透過多數投票或品質評分匯總最終結果。減少單次運行的幻覺。

3)思維與行動的校準

  • 使用 低溫 用於操作(確定性、可靠的工具呼叫)。
  • 使用 較高溫度 如果需要創造力,可用於腦力激盪/計畫。
  • 透過不同的模型呼叫或在同一呼叫中明確指定溫度來區分這些參數。

4)草稿紙和記憶紙

  • 保留一個內部草稿本,用於記錄工作記憶(工具呼叫過程中發現的事實、中間程式碼片段)。
  • 將重要事實持久化到會話記憶體或向量資料庫中,以便將來的查詢可以重複使用它們(避免重複搜尋)。

5)驗證層

在執行高影響操作(例如部署、刪除、金融交易)之前,需要:

  • 用於產生簡短易讀摘要的模型
  • 透過輔助模型或驗證腳本進行交叉檢查,
  • 人工批准破壞性行為。

6)成本和延遲優化

  • 使用簡短、結構化的討論訊息(每次回覆一個行動)。
  • 使用串流媒體傳輸長時間輸出數據,以減少感知延遲。
  • 快取確定性或重複的工具呼叫回應。

範例實作(使用 CometAPI 的 Python 偽代碼)

這段偽代碼演示了伺服器端編排。它假設 CometAPI 支援與 OpenAI 相容的聊天自動補全功能。

import requests, os, json

API_KEY = os.getenv("COMETAPI_KEY")
ENDPOINT = "https://api.cometapi.com/v1/chat/completions"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}

def call_model(messages, model="minimax-m2", max_tokens=512, temperature=0.2):
    payload = {"model": model, "messages": messages, "max_tokens": max_tokens, "temperature": temperature}
    r = requests.post(ENDPOINT, headers=HEADERS, json=payload)
    return r.json()

# Initial conversation: system + user request

messages = [
    {"role":"system", "content": "You are an agentic assistant... "},
    {"role":"user", "content": "Help me update the CI job to use M2's new agent API."}
]

# Loop: ask model for thought/action, execute action, provide observation, repeat

for step in range(8):  # max 8 steps to avoid runaway loops

    resp = call_model(messages)
    assistant_text = resp
    # parse assistant_text for ACTION (e.g., CALL_TOOL)

    action = parse_action(assistant_text)
    if action == "FINAL_ANSWER":
        final = extract_final_answer(assistant_text)
        # present final to user

        print("FINAL:", final)
        break
    elif action == "CALL_TOOL":
        tool_name = action
        tool_args = action
        # Execute the tool safely (validate inputs first!)

        obs = safe_execute_tool(tool_name, tool_args)
        messages.append({"role":"system", "content": f"TOOL_RESULT: {json.dumps(obs)}"})
        # loop continues: model gets observation and responds

關鍵點:

  • parse_action 必須穩健嚴格;不要依賴自由格式解析。
  • safe_execute_tool 必須驗證工具參數(允許的操作白名單、參數清理)。
  • 設定最大步數限制和超時時間。

結束語

MiniMax M2 代表了開放式 LLM 生態系統中的重要新選擇:它是一種基於 MoE 的模型,針對編碼和代理工作流程進行了最佳化,並發​​布了權重和工具,使團隊能夠在便捷的託管服務和自主託管控制之間進行選擇。對於許多團隊而言,最佳方法是分兩階段進行:(1) 在託管端點或免費試用版上快速驗證;(2) 僅當需要控制、自訂或長期成本效益足以證明維運投資的合理性時,才評估自主託管。 M2 結合了長上下文視窗、代理原生功能和開放權重,使其對開發者工具、多步驟代理和生產助理尤其具有吸引力——前提是團隊應用了謹慎的優化和安全工程。

如何存取 MiniMax M2 API

CometAPI 是一個統一的 API 平台,它將來自領先供應商(例如 OpenAI 的 GPT 系列、Google 的 Gemini、Anthropic 的 Claude、Midjourney、Suno 等)的 500 多個 AI 模型聚合到一個開發者友好的介面中。透過提供一致的身份驗證、請求格式和回應處理,CometAPI 顯著簡化了將 AI 功能整合到您的應用程式中的過程。無論您是建立聊天機器人、影像產生器、音樂作曲家,還是資料驅動的分析流程,CometAPI 都能讓您更快地迭代、控製成本,並保持與供應商的兼容性——同時也能充分利用整個 AI 生態系統的最新突破。

開發人員可以訪問 Minimax M2 API 透過 CometAPI, 最新型號版本 始終與官方網站同步更新。首先,探索該模型的功能 游乐场 並諮詢 API指南 以獲得詳細說明。造訪前請確保您已經登入CometAPI並取得API金鑰。 彗星API 提供遠低於官方價格的價格,幫助您整合。

準備出發了嗎? → 立即註冊 CometAPI !

如果您想了解更多有關 AI 的提示、指南和新聞,請關注我們 VKX   不和!

SHARE THIS BLOG

一個 API 中超過 500 個模型

最高 20% 折扣