Home/Models/Xiaomi/mimo-v2-pro
X

mimo-v2-pro

入力:$0.8/M
出力:$2.4/M
MiMo-V2-Pro は Xiaomi のフラッグシップ基盤モデルで、総パラメータ数は 1T 超、コンテキスト長は 1M で、エージェント志向のシナリオ向けに徹底的に最適化されています。OpenClaw のような汎用エージェントフレームワークに高い適応性を備えており、標準的な PinchBench および ClawBench ベンチマークで世界トップクラスに位置し、体感パフォーマンスは Opus 4.6 に迫ります。MiMo-V2-Pro はエージェントシステムの頭脳として、複雑なワークフローをオーケストレーションし、本番環境のエンジニアリングタスクを推進し、確実に成果を提供するよう設計されています。
新着
商用利用
Playground
概要
機能
料金プラン
API

Xiaomi MiMo-V2-Pro の技術仕様

項目Xiaomi MiMo-V2-Pro
提供元Xiaomi
モデルIDmimo-v2-pro
モデルファミリーMiMo-V2
モデル種別エージェント型基盤モデル/推論モデル
主入力テキスト
主出力テキスト
コンテキストウィンドウ最大 1,000,000 トークン
総パラメータ数1兆超
アクティブパラメータ数420億
アーキテクチャハイブリッド・アテンション MoE
リリース時期2026年3月
ベンチマーク指標Artificial Analysis Intelligence Index: 世界第8位; PinchBench: 世界第3位

Xiaomi MiMo-V2-Pro とは?

Xiaomi MiMo-V2-Pro は、実世界のエージェント業務向けに設計された Xiaomi のフラッグシップ MiMo モデルです。複雑なワークフローをオーケストレーションし、プロダクションエンジニアリングのタスクを処理し、長く多段のジョブにおいても信頼性高く動作し続けるエージェントシステムの中核となるモデルだと Xiaomi は説明しています。

Xiaomi MiMo-V2-Pro の主な特長

  • エージェント優先の設計: チャット型の回答だけでなく、ワークフロー、ツール使用、タスク実行に向けて構築。
  • 超長コンテキスト: 最大 1,000,000 トークンをサポートし、巨大なコードベース、長大なドキュメント、長期のタスクトレースに実用的。
  • 大規模 MoE: 総パラメータは 1T 超、アクティブパラメータは 42B。ハイブリッド・アテンションと組み合わせて効率化。
  • 強力なコーディング能力: 社内評価で Claude 4.6 Sonnet を上回ると Xiaomi は述べています。
  • 信頼性の高いツール呼び出し: エージェントのスキャフォールドにおけるツール呼び出しの安定性と精度が向上。
  • フレームワーク親和性: Xiaomi は、OpenClaw、OpenCode、KiloCode、Blackbox、Cline などのエージェントフレームワークと組み合わせているとしています。

Xiaomi MiMo-V2-Pro のベンチマーク性能

Xiaomi の 2026年3月の資料では、MiMo-V2-Pro は Artificial Analysis Intelligence Index で世界第8位、PinchBench の平均タスク完了率で世界第3位と位置付けられています。Xiaomi はまた ClawEval スコア 61.5 を報告しており、同ベンチマークにおいて Claude Opus 4.6 に近く、GPT-5.2 を上回ると説明しています。

Xiaomi MiMo-V2-Pro と MiMo-V2-Flash と MiMo-V2-Omni の比較

モデル最適用途主な違い
MiMo-V2-Flash高速かつ効率的なテキスト推論効率重視に調整された小型 MoE モデル; 総 309B / アクティブ 15B
MiMo-V2-Pro深いエージェント型推論と長尺ワークフロー1M トークンのコンテキストと 1T+ パラメータを備えたフラッグシップのテキストエージェントモデル
MiMo-V2-Omniマルチモーダルの理解と実行テキスト、ビジョン、音声を統合し、マルチモーダルなエージェントタスクに対応

Xiaomi MiMo-V2-Pro を使うべきとき

長いコンテキストが必要な推論、多段のエージェントオーケストレーション、コード中心のワークフロー、プロダクション水準のタスク実行が求められる場合に MiMo-V2-Pro を使用してください。速度よりも深さが重要なときは MiMo-V2-Flash より適しており、ワークロードがマルチモーダルではなくテキスト中心の場合は MiMo-V2-Omni より適しています。

制限事項

MiMo-V2-Pro はテキスト優先のエージェントモデルとして位置付けられているため、ネイティブなマルチモーダル作業は MiMo-V2-Omni がより適しています。あらゆるベンチマーク主導のモデルと同様に、実際の結果はプロンプト設計、ツール品質、およびエージェントをスタックにどう組み込むかに左右されます。

よくある質問

What makes Xiaomi MiMo-V2-Pro API different from MiMo-V2-Flash?

MiMo-V2-Pro is Xiaomi’s flagship agentic model for deeper workflows, while MiMo-V2-Flash is the efficiency-focused sibling. Xiaomi says Pro is built for real-world agent tasks, with over 1 trillion total parameters, 42 billion active parameters, and a 1 million-token context window.

How large is the Xiaomi MiMo-V2-Pro API context window?

Xiaomi says MiMo-V2-Pro supports up to 1 million tokens of context. That is the key spec to know if you need to keep huge codebases, long documents, or extended task histories in one run.

Can Xiaomi MiMo-V2-Pro API handle coding and multi-step agent workflows?

Yes. Xiaomi positions MiMo-V2-Pro as a model for production engineering tasks, complex workflows, and agent scaffolds. The company also says its coding ability surpasses Claude 4.6 Sonnet in internal evaluations.

When should I use Xiaomi MiMo-V2-Pro API instead of MiMo-V2-Omni?

Use MiMo-V2-Pro when your workload is text-first and centered on reasoning, code, or tool orchestration. Use MiMo-V2-Omni when you need native multimodal understanding across text, vision, and speech.

How does Xiaomi MiMo-V2-Pro API compare with Claude Opus 4.6 and GPT-5.2?

Xiaomi reports MiMo-V2-Pro at 61.5 on ClawEval, compared with 66.3 for Claude Opus 4.6 and 50.0 for GPT-5.2 on the same chart. Xiaomi also says Pro is close to Opus 4.6 on general agent performance and ranks #8 globally on the Artificial Analysis Intelligence Index.

What are the known limitations of Xiaomi MiMo-V2-Pro API?

MiMo-V2-Pro is optimized for agentic text workflows, so it is not the family member to choose for native multimodal input. For image, video, or speech-heavy jobs, Xiaomi’s MiMo-V2-Omni is the better match.

How do I integrate Xiaomi MiMo-V2-Pro API with an OpenAI-compatible client?

OpenClaw documents the Xiaomi provider as OpenAI-compatible, which means you can use an OpenAI-style client with Xiaomi’s base URL and model ID. In practice, that makes it straightforward to swap in mimo-v2-pro as the model name while keeping your existing chat-completions flow.

Is Xiaomi MiMo-V2-Pro API suitable for long document analysis?

Yes. The 1 million-token context window makes MiMo-V2-Pro a strong fit for very long source documents, support tickets, policy packs, or repository-scale analysis where smaller-context models would truncate too early.

mimo-v2-proの機能

mimo-v2-proのパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

mimo-v2-proの料金

mimo-v2-proの競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。mimo-v2-proがコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$0.8/M
出力:$2.4/M
入力:$1/M
出力:$3/M
-20%

mimo-v2-proのサンプルコードとAPI

mimo-v2-proの包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでmimo-v2-proの潜在能力を最大限に活用できるよう支援します。
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"

client = OpenAI(api_key=COMETAPI_KEY, base_url="https://api.cometapi.com/v1")

stream = client.chat.completions.create(
    model="mimo-v2-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain the Monty Hall problem step by step."},
    ],
    stream=True,
    extra_body={"thinking": {"type": "enabled"}},
)

thinking = False
for chunk in stream:
    delta = chunk.choices[0].delta
    reasoning = (delta.model_extra or {}).get("reasoning_content")
    if reasoning:
        if not thinking:
            print("<thinking>")
            thinking = True
        print(reasoning, end="", flush=True)
    elif thinking and delta.content:
        print("
</thinking>
")
        thinking = False
        print(delta.content, end="", flush=True)
    elif delta.content:
        print(delta.content, end="", flush=True)

その他のモデル