Home/Models/Xiaomi/mimo-v2-pro
X

mimo-v2-pro

Entrada:$0.8/M
Saída:$2.4/M
MiMo-V2-Pro é o modelo fundacional carro-chefe da Xiaomi, com mais de 1T de parâmetros no total e um comprimento de contexto de 1M, profundamente otimizado para cenários agentivos. Ele é altamente adaptável a frameworks de agentes gerais como o OpenClaw. Ele figura entre a elite global nos benchmarks padrão PinchBench e ClawBench, com desempenho percebido que se aproxima ao de Opus 4.6. MiMo-V2-Pro foi projetado para servir como o cérebro de sistemas de agentes, orquestrando fluxos de trabalho complexos, impulsionando tarefas de engenharia em produção e entregando resultados de forma confiável.
Novo
Uso comercial
Playground
Visão Geral
Recursos
Preços
API

Especificações técnicas do Xiaomi MiMo-V2-Pro

ItemXiaomi MiMo-V2-Pro
FabricanteXiaomi
ID do modelomimo-v2-pro
Família do modeloMiMo-V2
Tipo de modelomodelo base agentivo / modelo de raciocínio
Entrada principalTexto
Saída principalTexto
Janela de contextoAté 1,000,000 tokens
Parâmetros totaisMais de 1 trilhão
Parâmetros ativos42 bilhões
ArquiteturaMoE com atenção híbrida
Período de lançamentoMarço de 2026
Indicador de benchmarkArtificial Analysis Intelligence Index: #8 globalmente; PinchBench: #3 globalmente

O que é o Xiaomi MiMo-V2-Pro?

O Xiaomi MiMo-V2-Pro é o modelo MiMo de ponta da Xiaomi para trabalho orientado a agentes no mundo real. A Xiaomi o descreve como o modelo por trás de sistemas de agentes que orquestram fluxos de trabalho complexos, lidam com tarefas de engenharia de produção e mantêm operação confiável ao longo de trabalhos longos e com múltiplas etapas.

Principais recursos do Xiaomi MiMo-V2-Pro

  • Design orientado a agentes: construído para fluxos de trabalho, uso de ferramentas e execução de tarefas, em vez de apenas respostas no estilo chat.
  • Contexto ultralongo: suporta até 1 milhão de tokens, o que o torna prático para bases de código enormes, documentos longos e trilhas de tarefas estendidas.
  • Grande escala MoE: mais de 1T de parâmetros totais com 42B de parâmetros ativos, combinada com atenção híbrida para eficiência.
  • Forte capacidade de programação: a Xiaomi afirma que seu desempenho em codificação supera o Claude 4.6 Sonnet em avaliações internas.
  • Chamadas de ferramentas confiáveis: a Xiaomi destaca maior estabilidade e precisão nas chamadas de ferramentas para estruturas de agentes.
  • Compatível com frameworks: a Xiaomi diz que o modelo está sendo integrado a frameworks de agentes como OpenClaw, OpenCode, KiloCode, Blackbox e Cline.

Desempenho em benchmarks do Xiaomi MiMo-V2-Pro

Os materiais da Xiaomi de março de 2026 colocam o MiMo-V2-Pro em #8 mundial no Artificial Analysis Intelligence Index e #3 globalmente na taxa média de conclusão de tarefas do PinchBench. A Xiaomi também relata uma pontuação ClawEval de 61.5, que descreve como próxima ao Claude Opus 4.6 e à frente do GPT-5.2 nesse benchmark.

Xiaomi MiMo-V2-Pro vs MiMo-V2-Flash vs MiMo-V2-Omni

ModeloMelhor paraDiferença principal
MiMo-V2-FlashRaciocínio textual rápido e eficienteModelo MoE menor ajustado para eficiência; 309B totais / 15B ativos
MiMo-V2-ProRaciocínio agentivo profundo e fluxos longosModelo principal de agente de texto com contexto de 1M tokens e 1T+ parâmetros
MiMo-V2-OmniCompreensão multimodal + execuçãoUnifica texto, visão e fala para tarefas multimodais de agentes

Quando usar o Xiaomi MiMo-V2-Pro

Use o MiMo-V2-Pro quando você precisar de raciocínio com contexto longo, orquestração de agentes em múltiplas etapas, fluxos de trabalho intensivos em código ou execução de tarefas em estilo de produção. Ele é mais adequado que o MiMo-V2-Flash quando a profundidade importa mais do que a velocidade, e mais adequado que o MiMo-V2-Omni quando sua carga de trabalho é priorizada por texto em vez de multimodal.

Limitações

O MiMo-V2-Pro é posicionado como um modelo de agente com prioridade em texto, portanto, trabalhos multimodais nativos são melhor tratados pelo MiMo-V2-Omni. Como em qualquer modelo guiado por benchmarks, os resultados reais ainda dependerão do design do prompt, da qualidade das ferramentas e de como o agente é conectado ao seu stack.

FAQ

What makes Xiaomi MiMo-V2-Pro API different from MiMo-V2-Flash?

MiMo-V2-Pro is Xiaomi’s flagship agentic model for deeper workflows, while MiMo-V2-Flash is the efficiency-focused sibling. Xiaomi says Pro is built for real-world agent tasks, with over 1 trillion total parameters, 42 billion active parameters, and a 1 million-token context window.

How large is the Xiaomi MiMo-V2-Pro API context window?

Xiaomi says MiMo-V2-Pro supports up to 1 million tokens of context. That is the key spec to know if you need to keep huge codebases, long documents, or extended task histories in one run.

Can Xiaomi MiMo-V2-Pro API handle coding and multi-step agent workflows?

Yes. Xiaomi positions MiMo-V2-Pro as a model for production engineering tasks, complex workflows, and agent scaffolds. The company also says its coding ability surpasses Claude 4.6 Sonnet in internal evaluations.

When should I use Xiaomi MiMo-V2-Pro API instead of MiMo-V2-Omni?

Use MiMo-V2-Pro when your workload is text-first and centered on reasoning, code, or tool orchestration. Use MiMo-V2-Omni when you need native multimodal understanding across text, vision, and speech.

How does Xiaomi MiMo-V2-Pro API compare with Claude Opus 4.6 and GPT-5.2?

Xiaomi reports MiMo-V2-Pro at 61.5 on ClawEval, compared with 66.3 for Claude Opus 4.6 and 50.0 for GPT-5.2 on the same chart. Xiaomi also says Pro is close to Opus 4.6 on general agent performance and ranks #8 globally on the Artificial Analysis Intelligence Index.

What are the known limitations of Xiaomi MiMo-V2-Pro API?

MiMo-V2-Pro is optimized for agentic text workflows, so it is not the family member to choose for native multimodal input. For image, video, or speech-heavy jobs, Xiaomi’s MiMo-V2-Omni is the better match.

How do I integrate Xiaomi MiMo-V2-Pro API with an OpenAI-compatible client?

OpenClaw documents the Xiaomi provider as OpenAI-compatible, which means you can use an OpenAI-style client with Xiaomi’s base URL and model ID. In practice, that makes it straightforward to swap in mimo-v2-pro as the model name while keeping your existing chat-completions flow.

Is Xiaomi MiMo-V2-Pro API suitable for long document analysis?

Yes. The 1 million-token context window makes MiMo-V2-Pro a strong fit for very long source documents, support tickets, policy packs, or repository-scale analysis where smaller-context models would truncate too early.

Recursos para mimo-v2-pro

Explore os principais recursos do mimo-v2-pro, projetado para aprimorar o desempenho e a usabilidade. Descubra como essas capacidades podem beneficiar seus projetos e melhorar a experiência do usuário.

Preços para mimo-v2-pro

Explore preços competitivos para mimo-v2-pro, projetado para atender diversos orçamentos e necessidades de uso. Nossos planos flexíveis garantem que você pague apenas pelo que usar, facilitando o dimensionamento conforme suas necessidades crescem. Descubra como mimo-v2-pro pode aprimorar seus projetos mantendo os custos gerenciáveis.
Preço do Comet (USD / M Tokens)Preço Oficial (USD / M Tokens)Desconto
Entrada:$0.8/M
Saída:$2.4/M
Entrada:$1/M
Saída:$3/M
-20%

Código de exemplo e API para mimo-v2-pro

Acesse código de exemplo abrangente e recursos de API para mimo-v2-pro para otimizar seu processo de integração. Nossa documentação detalhada fornece orientação passo a passo, ajudando você a aproveitar todo o potencial do mimo-v2-pro em seus projetos.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"

client = OpenAI(api_key=COMETAPI_KEY, base_url="https://api.cometapi.com/v1")

stream = client.chat.completions.create(
    model="mimo-v2-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain the Monty Hall problem step by step."},
    ],
    stream=True,
    extra_body={"thinking": {"type": "enabled"}},
)

thinking = False
for chunk in stream:
    delta = chunk.choices[0].delta
    reasoning = (delta.model_extra or {}).get("reasoning_content")
    if reasoning:
        if not thinking:
            print("<thinking>")
            thinking = True
        print(reasoning, end="", flush=True)
    elif thinking and delta.content:
        print("
</thinking>
")
        thinking = False
        print(delta.content, end="", flush=True)
    elif delta.content:
        print(delta.content, end="", flush=True)

Mais modelos