ミニマックスM2 あります オープンソース、エージェントネイティブ MiniMaxがリリースした大規模言語モデル(LLM) 2025 年 10 月 27 日明確に設計されている コーディング および エージェントワークフロー (ツール呼び出し、多段階自動化)、優先順位付け 低レイテンシ および コスト効率の良い 強力な推論機能とツール使用機能を提供しながらサービスを提供します。
主な特徴
ハイライト — コーディング専門, エージェントワークフロー, アクティブパラメータのフットプリントが低い, 長いコンテキストのサポート, OpenAI互換APIミニマックスポジション ミニマックスM2 として 高速で導入しやすいMoEモデル マルチステップエージェント、コード生成と修復、ターミナル/IDE ワークフロー、ツール呼び出しを対象としています。
注目の箇条書き(クイック):
- 建築: 非常に大きな総パラメータ数と小さな 活性化 フォワードパスごとに設定されるパラメータ。
- アクティベーションフットプリント: ~10億のアクティブパラメータ (トークンあたり)
- 合計パラメータ(報告済み): 報告された 約200億~230億 ソース/指標に応じて( 技術的な詳細).
- コンテキストウィンドウ: エンタープライズ規模の長いコンテキスト。 204,800トークン 最大コンテキスト。
- 主なモダリティ: テキスト(ツール呼び出し/関数呼び出しをサポート)。
- エージェントネイティブ: マルチステップ ツール呼び出し (シェル、ブラウザー、Python インタープリター、MCP ツール) 用に設計されています。
- コーディングの焦点: 複数ファイルの編集、実行修正ループ、CI/IDE タスク向けに最適化されています。
技術的な詳細(アーキテクチャと仕様)
建築 - 専門家の混合(MoE): ミニマックスM2 APIはMoE戦略を採用しており、モデルは パラメータの総数が非常に多い 推論ステップごとに一部だけをアクティブ化することで、 計算効率, スループット, トークンあたりのコスト インタラクティブエージェントとコーディングループ用。
精度と量子化 — モデル ファイルとプロバイダー スタックには、FP32/BF16 および FP8 形式と複数の量子化ビルド (セーフテンソル、FP8/E4M3 など) がリストされており、ローカル展開と効率のトレードオフが可能になります。
コンテキストとI/O — 導入されたプロバイダーが公開 204,800トークン コンテキストサポートと大きな最大出力設定。M2は テキストのみ 今のところは(中国からのオープンウェイトのリリースの多くはテキスト/エージェント機能に重点が置かれていますが、マルチモーダルは他のリリースの領域のままです)。
実行時の推奨事項/特別な指示 — ミニマックスM2 APIは 「インターリーブ思考」 モデルの内部推論をラップする出力形式 <think>...</think> ブロック。MiniMax のリクエストでは、思考コンテンツをそのまま保持し、履歴コンテキストで返すことで、複数ターンのエージェント ワークフローのパフォーマンスを維持します。
ベンチマークパフォーマンス
複合知能とエージェントベンチマーク — 人工分析による独立したベンチマークでは、 MiniMax-M2は、オープンウェイトモデルの中でクラス最高のインテリジェンスインデックスを達成しました。、そして トップオープンソースモデル 複合知能指標、特に 道具の使用、指示の遵守、エージェント的タスク人工分析はモデルの 効率 (アクティブなパラメータはほとんどない) がランキングの主要な要因となっています。

ミニマックスM2 ショー コーディングとエージェントスイートで強力な成果 (Terminal-Bench、SWE-Bench、BrowseComp、LiveCodeBench タイプのタスク)、そのアーキテクチャとアクティベーション バジェットは、計画 → 実行 → 検証ループ (コンパイル/実行/テスト サイクル、複数ファイルの編集、およびツール チェーン) に適しています。

比較: MiniMax M2と他の現代モデル
オープンウェイトの同業者(DeepSeek、Qwen3、Kimiなど)に対して — ミニマックスM2 として提示されます 特に効率的 アクティブパラメータの予算(≈10B)に基づいて、アクティブパラメータあたりのインテリジェンス比率が高くなります。他のオープンモデルでは、アクティブパラメータの数はより多くても、合計パラメータは同様またはそれ以上になる可能性があります。
商業的なフロンティアモデル(OpenAI / Anthropic / Google / xAI)に反対 — 報告場所 M2 最高級の商用モデルより下 いくつかの一般的な指標では 競争力があるか、先を行くか 多くのエージェントおよびコーディングベンチマークで、その価格帯としてはトップクラスです。
コストと速度のトレードオフ — トークンあたりのコストは Anthropic Claude Sonnet のわずか 8% で、速度は約 2 倍です。
制限とリスク
制限事項 — 冗長性(トークンの使用量が多い), テキストのみのモダリティ, タスク特有の弱点、そしてLLMの一般的なリスク(幻覚、過信、データセットのバイアス)があります。Artificial AnalysisとMiniMaxはどちらも、M2はエージェントやコーディングワークフローでは優れているものの、特定のオープンエンドタスクでは一部の大規模なジェネラリストモデルよりもパフォーマンスが低い可能性があることを指摘しています。MoEベースであるため、 展開に関する考慮事項 (エキスパート ルーティング、量子化、および推論フレームワーク) が重要です。
運用上の注意点 — ミニマックスM2 さん インターリーブ思考 フォーマットには特別な保持が必要 <think>...</think> パフォーマンスを最大限に高めるために、トークンを履歴全体にわたって保存します。そのコンテンツを削除すると、エージェントの動作が低下する可能性があります。また、 ミニマックスM2 冗長なため、タスクあたりのコストは両方の関数となる トークンあたりの価格 および 生成されたトークンの合計.
主な使用例
- エージェントオーケストレーションと長いワークフロー — マルチステップツールチェーン, 参照→取得→実行サイクル, エラー回復, 証拠のトレーサビリティ エージェント実行時。
- 開発者の生産性とコーディングアシスタント — コンパイル、実行、テストのループ, 複数ファイルの編集, テスト検証済みの修理, IDE統合 (Claude Code、Cursor、Codex、Grok CLI の例が存在します)。
- 高スループットエージェントフリート/プロダクションボット — コラボレー 推論あたりのコスト および 並行性 重要なのは、M2 のアクティブ化パラメータのフットプリントが低いため、インフラストラクチャのコストを削減できることです。
電話方法 ミニマックスM2 CometAPI からの API
minimax-m2 CometAPI の API 価格、公式価格より 20% オフ:
- 入力トークン: $0.24 Mトークン
- 出力トークン: $0.96/Mトークン
必要な手順
- ログインする コムタピまだユーザーでない方は、まずはご登録をお願いいたします。
- あなたにサインインします CometAPIコンソール.
- インターフェースのアクセス認証情報APIキーを取得します。パーソナルセンターのAPIトークンで「トークンを追加」をクリックし、トークンキー(sk-xxxxx)を取得して送信します。

使用方法
- 「minimax-m2」エンドポイントを選択し、APIリクエストを送信し、リクエストボディを設定します。リクエストメソッドとリクエストボディは、弊社ウェブサイトのAPIドキュメントから取得できます。また、お客様の便宜を図るため、弊社ウェブサイトではApifoxテストも提供しています。
- 交換するアカウントの実際の CometAPI キーを使用します。
- コンテンツ フィールドに質問またはリクエストを入力します。モデルはこれに応答します。
- API 応答を処理して、生成された回答を取得します。
CometAPIは、シームレスな移行のために完全に互換性のあるREST APIを提供します。 APIドキュメント:
- ベースURL: https://api.cometapi.com/v1/chat/completions
- モデル名: 「
minimax-m2「 - 認証:
Bearer YOUR_CometAPI_API_KEYヘッダ - コンテンツタイプ:
application/json.
API統合と例
以下である Python CometAPIのAPI経由でGLM-4.6を呼び出す方法を示すスニペット。 <API_KEY> および <PROMPT> それに応じて:
import requests
API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer <API_KEY>",
"Content-Type": "application/json"
}
payload = {
"model": "minimax-m2",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "<PROMPT>"}
],
"max_tokens": 512,
"temperature": 0.7
}
response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())
