ModellePreiseUnternehmen
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Unternehmen
Über unsUnternehmen
Ressourcen
KI-ModelleBlogÄnderungsprotokollSupport
NutzungsbedingungenDatenschutzrichtlinie
© 2026 CometAPI · All rights reserved
Home/Models/Xiaomi/mimo-v2-pro
X

mimo-v2-pro

Eingabe:$0.8/M
Ausgabe:$2.4/M
MiMo-V2-Pro ist Xiaomis Flaggschiff unter den Foundation-Modellen und verfügt über insgesamt mehr als 1T Parameter sowie eine Kontextlänge von 1M. Es ist umfassend für agentische Szenarien optimiert. Es ist in hohem Maße an allgemeine Agent-Frameworks wie OpenClaw anpassbar. In den Standard-Benchmarks PinchBench und ClawBench zählt es weltweit zur Spitzengruppe, wobei die wahrgenommene Leistung an die von Opus 4.6 heranreicht. MiMo-V2-Pro wurde als Gehirn von Agentensystemen konzipiert, um komplexe Workflows zu orchestrieren, produktionsnahe Engineering-Aufgaben voranzutreiben und zuverlässig Ergebnisse zu liefern.
Neu
Kommerzielle Nutzung
Playground
Überblick
Funktionen
Preisgestaltung
API

Technische Spezifikationen von Xiaomi MiMo-V2-Pro

ItemXiaomi MiMo-V2-Pro
ProviderXiaomi
Model IDmimo-v2-pro
Model familyMiMo-V2
Model typeAgentisches Foundation-Modell / Reasoning-Modell
Primary inputText
Primary outputText
Context windowBis zu 1,000,000 tokens
Total parametersÜber 1 trillion
Active parameters42 billion
ArchitectureHybrid-Attention MoE
Release windowMärz 2026
Benchmark signalArtificial Analysis Intelligence Index: #8 weltweit; PinchBench: #3 weltweit

Was ist Xiaomi MiMo-V2-Pro?

Xiaomi MiMo-V2-Pro ist Xiaomis Flaggschiff-MiMo-Modell für agentische Arbeit in der realen Welt. Xiaomi beschreibt es als das Modell hinter Agentensystemen, die komplexe Workflows orchestrieren, Produktions-Engineering-Aufgaben bewältigen und über lange, mehrstufige Jobs hinweg zuverlässig weiterarbeiten.

Hauptmerkmale von Xiaomi MiMo-V2-Pro

  • Agent-First-Design: entwickelt für Workflows, Toolnutzung und Aufgabenausführung statt nur Chat-ähnlicher Antworten.
  • Ultralanger Kontext: unterstützt bis zu 1 million tokens, was es für riesige Codebasen, lange Dokumente und ausgedehnte Task-Traces praktikabel macht.
  • Großes MoE-Scale: mehr als 1T Gesamtparameter mit 42B aktiven Parametern, kombiniert mit Hybrid-Attention für Effizienz.
  • Starke Programmierfähigkeiten: Xiaomi sagt, die Code-Performance übertreffe Claude 4.6 Sonnet in internen Evaluierungen.
  • Zuverlässige Tool-Aufrufe: Xiaomi hebt verbesserte Stabilität und Genauigkeit von Tool-Aufrufen für Agent-Gerüste hervor.
  • Framework-freundlich: Xiaomi gibt an, dass das Modell mit Agent-Frameworks wie OpenClaw, OpenCode, KiloCode, Blackbox und Cline kombiniert wird.

Benchmark-Leistung von Xiaomi MiMo-V2-Pro

Xiaomis Materialien vom März 2026 verorten MiMo-V2-Pro auf dem Artificial Analysis Intelligence Index weltweit auf Platz #8 und bei PinchBench nach durchschnittlicher Aufgabenerfüllungsrate auf Platz #3. Xiaomi berichtet außerdem von einem ClawEval-Score von 61.5, den es als nahe an Claude Opus 4.6 und vor GPT-5.2 auf diesem Benchmark beschreibt.

Xiaomi MiMo-V2-Pro vs MiMo-V2-Flash vs MiMo-V2-Omni

ModelBest forKey difference
MiMo-V2-FlashSchnelles, effizientes Text-ReasoningKleineres MoE-Modell, auf Effizienz getrimmt; 309B total / 15B aktive Parameter
MiMo-V2-ProTiefes agentisches Reasoning und lange WorkflowsFlaggschiff-Text-Agentenmodell mit 1M-token Kontext und 1T+ Parametern
MiMo-V2-OmniMultimodales Verständnis + AusführungVereint Text, Vision und Sprache für multimodale Agentenaufgaben

Wann Xiaomi MiMo-V2-Pro einsetzen

Verwenden Sie MiMo-V2-Pro, wenn Sie Long-Context-Reasoning, mehrschrittige Agent-Orchestrierung, codeintensive Workflows oder produktionsnahe Aufgabenausführung benötigen. Es ist die bessere Wahl als MiMo-V2-Flash, wenn Tiefe wichtiger ist als Geschwindigkeit, und die bessere Wahl als MiMo-V2-Omni, wenn Ihre Workloads text-first statt multimodal sind.

Einschränkungen

MiMo-V2-Pro ist als text-first Agentenmodell positioniert, daher eignet sich native multimodale Arbeit besser für MiMo-V2-Omni. Wie bei jedem benchmarkgetriebenen Modell hängen die realen Ergebnisse weiterhin von Prompt-Design, Tool-Qualität und der Einbindung des Agenten in Ihren Stack ab.

FAQ

What makes Xiaomi MiMo-V2-Pro API different from MiMo-V2-Flash?

MiMo-V2-Pro is Xiaomi’s flagship agentic model for deeper workflows, while MiMo-V2-Flash is the efficiency-focused sibling. Xiaomi says Pro is built for real-world agent tasks, with over 1 trillion total parameters, 42 billion active parameters, and a 1 million-token context window.

How large is the Xiaomi MiMo-V2-Pro API context window?

Xiaomi says MiMo-V2-Pro supports up to 1 million tokens of context. That is the key spec to know if you need to keep huge codebases, long documents, or extended task histories in one run.

Can Xiaomi MiMo-V2-Pro API handle coding and multi-step agent workflows?

Yes. Xiaomi positions MiMo-V2-Pro as a model for production engineering tasks, complex workflows, and agent scaffolds. The company also says its coding ability surpasses Claude 4.6 Sonnet in internal evaluations.

When should I use Xiaomi MiMo-V2-Pro API instead of MiMo-V2-Omni?

Use MiMo-V2-Pro when your workload is text-first and centered on reasoning, code, or tool orchestration. Use MiMo-V2-Omni when you need native multimodal understanding across text, vision, and speech.

How does Xiaomi MiMo-V2-Pro API compare with Claude Opus 4.6 and GPT-5.2?

Xiaomi reports MiMo-V2-Pro at 61.5 on ClawEval, compared with 66.3 for Claude Opus 4.6 and 50.0 for GPT-5.2 on the same chart. Xiaomi also says Pro is close to Opus 4.6 on general agent performance and ranks #8 globally on the Artificial Analysis Intelligence Index.

What are the known limitations of Xiaomi MiMo-V2-Pro API?

MiMo-V2-Pro is optimized for agentic text workflows, so it is not the family member to choose for native multimodal input. For image, video, or speech-heavy jobs, Xiaomi’s MiMo-V2-Omni is the better match.

How do I integrate Xiaomi MiMo-V2-Pro API with an OpenAI-compatible client?

OpenClaw documents the Xiaomi provider as OpenAI-compatible, which means you can use an OpenAI-style client with Xiaomi’s base URL and model ID. In practice, that makes it straightforward to swap in mimo-v2-pro as the model name while keeping your existing chat-completions flow.

Is Xiaomi MiMo-V2-Pro API suitable for long document analysis?

Yes. The 1 million-token context window makes MiMo-V2-Pro a strong fit for very long source documents, support tickets, policy packs, or repository-scale analysis where smaller-context models would truncate too early.

Preise für mimo-v2-pro

Entdecken Sie wettbewerbsfähige Preise für mimo-v2-pro, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie mimo-v2-pro Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$0.8/M
Ausgabe:$2.4/M
Eingabe:$1/M
Ausgabe:$3/M
-20%

Beispielcode und API für mimo-v2-pro

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für mimo-v2-pro zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von mimo-v2-pro in Ihren Projekten zu nutzen.
POST
/v1/chat/completions
POST
/v1/messages
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"

client = OpenAI(api_key=COMETAPI_KEY, base_url="https://api.cometapi.com/v1")

stream = client.chat.completions.create(
    model="mimo-v2-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain the Monty Hall problem step by step."},
    ],
    stream=True,
    extra_body={"thinking": {"type": "enabled"}},
)

thinking = False
for chunk in stream:
    delta = chunk.choices[0].delta
    reasoning = (delta.model_extra or {}).get("reasoning_content")
    if reasoning:
        if not thinking:
            print("<thinking>")
            thinking = True
        print(reasoning, end="", flush=True)
    elif thinking and delta.content:
        print("
</thinking>
")
        thinking = False
        print(delta.content, end="", flush=True)
    elif delta.content:
        print(delta.content, end="", flush=True)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"

client = OpenAI(api_key=COMETAPI_KEY, base_url="https://api.cometapi.com/v1")

stream = client.chat.completions.create(
    model="mimo-v2-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain the Monty Hall problem step by step."},
    ],
    stream=True,
    extra_body={"thinking": {"type": "enabled"}},
)

thinking = False
for chunk in stream:
    delta = chunk.choices[0].delta
    reasoning = (delta.model_extra or {}).get("reasoning_content")
    if reasoning:
        if not thinking:
            print("<thinking>")
            thinking = True
        print(reasoning, end="", flush=True)
    elif thinking and delta.content:
        print("\n</thinking>\n")
        thinking = False
        print(delta.content, end="", flush=True)
    elif delta.content:
        print(delta.content, end="", flush=True)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";

const client = new OpenAI({ apiKey: api_key, baseURL: "https://api.cometapi.com/v1" });

const stream = await client.chat.completions.create({
  model: "mimo-v2-pro",
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Explain the Monty Hall problem step by step." },
  ],
  stream: true,
  thinking: { type: "enabled" },
});

let thinking = false;
for await (const chunk of stream) {
  const delta = chunk.choices[0]?.delta ?? {};
  const reasoning = delta.reasoning_content;
  if (reasoning) {
    if (!thinking) { process.stdout.write("<thinking>\n"); thinking = true; }
    process.stdout.write(reasoning);
  } else if (thinking && delta.content) {
    process.stdout.write("\n</thinking>\n\n");
    thinking = false;
    process.stdout.write(delta.content);
  } else if (delta.content) {
    process.stdout.write(delta.content);
  }
}

Curl Code Example

# Get your CometAPI key from https://api.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"

curl https://api.cometapi.com/v1/chat/completions \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "mimo-v2-pro",
    "messages": [
      {"role": "system", "content": "You are a helpful assistant."},
      {"role": "user", "content": "Explain the Monty Hall problem step by step."}
    ],
    "stream": true,
    "thinking": {"type": "enabled"}
  }'