Home/Models/Xiaomi/mimo-v2-pro
X

mimo-v2-pro

Ввод:$0.8/M
Вывод:$2.4/M
MiMo-V2-Pro — флагманская базовая модель Xiaomi с более чем 1T общих параметров и длиной контекста 1M, глубоко оптимизированная для агентных сценариев. Она обладает высокой адаптивностью к универсальным агентным фреймворкам, таким как OpenClaw. В стандартных бенчмарках PinchBench и ClawBench она входит в число мировых лидеров, а по воспринимаемой производительности приближается к уровню Opus 4.6. MiMo-V2-Pro создана, чтобы служить мозгом агентных систем, оркестрировать сложные рабочие процессы, обеспечивать выполнение инженерных задач в production-среде и надежно выдавать результаты.
Новый
Коммерческое использование
Playground
Обзор
Функции
Цены
API

Технические характеристики Xiaomi MiMo-V2-Pro

ПараметрXiaomi MiMo-V2-Pro
ПоставщикXiaomi
Идентификатор моделиmimo-v2-pro
Семейство моделиMiMo-V2
Тип моделиАгентная базовая модель / модель рассуждений
Основной вводТекст
Основной выводТекст
Окно контекстаДо 1,000,000 токенов
Общее число параметровСвыше 1 триллиона
Активных параметров42 миллиарда
АрхитектураMoE с гибридным вниманием
Период выпускамарт 2026 года
Показатели бенчмарковArtificial Analysis Intelligence Index: #8 в мире; PinchBench: #3 в мире

Что такое Xiaomi MiMo-V2-Pro?

Xiaomi MiMo-V2-Pro — флагманская модель MiMo от Xiaomi для реальных агентных задач. Xiaomi описывает её как модель, лежащую в основе агентных систем, которые оркестрируют сложные рабочие процессы, выполняют производственные инженерные задачи и надёжно работают на протяжении длительных многошаговых заданий.

Основные возможности Xiaomi MiMo-V2-Pro

  • Агентно-ориентированный дизайн: создана для рабочих процессов, использования инструментов и выполнения задач, а не только для ответов в формате чата.
  • Сверхдлинный контекст: поддерживает до 1 миллиона токенов, что делает её практичной для огромных кодовых баз, длинных документов и протяжённых следов выполнения задач.
  • Крупный масштаб MoE: более 1T общих параметров и 42B активных параметров, в сочетании с гибридным вниманием для эффективности.
  • Сильные навыки программирования: по словам Xiaomi, производительность в программировании превосходит Claude 4.6 Sonnet по внутренним оценкам.
  • Надёжный вызов инструментов: Xiaomi отмечает повышенную стабильность и точность вызовов инструментов для агентных каркасов.
  • Дружелюбна к фреймворкам: по словам Xiaomi, модель сочетается с агентными фреймворками, такими как OpenClaw, OpenCode, KiloCode, Blackbox и Cline.

Результаты бенчмарков Xiaomi MiMo-V2-Pro

Материалы Xiaomi за март 2026 года помещают MiMo-V2-Pro на #8 в мире в Artificial Analysis Intelligence Index и на #3 в мире в PinchBench по среднему уровню завершения задач. Также Xiaomi сообщает об оценке ClawEval 61.5, которую описывает как близкую к Claude Opus 4.6 и опережающую GPT-5.2 на этом бенчмарке.

Xiaomi MiMo-V2-Pro vs MiMo-V2-Flash vs MiMo-V2-Omni

МодельОптимально дляКлючевое отличие
MiMo-V2-FlashБыстрые и эффективные текстовые рассужденияБолее компактная модель MoE, оптимизированная для эффективности; 309B всего / 15B активных параметров
MiMo-V2-ProГлубокие агентные рассуждения и длинные рабочие процессыФлагманская текстовая агентная модель с контекстом на 1M токенов и 1T+ параметров
MiMo-V2-OmniМультимодальное понимание + исполнениеОбъединяет текст, зрение и речь для мультимодальных агентных задач

Когда использовать Xiaomi MiMo-V2-Pro

Используйте MiMo-V2-Pro, когда вам нужны рассуждения с длинным контекстом, многошаговая оркестрация агентных задач, рабочие процессы с большим объёмом кода или выполнение задач в производственном стиле. Она подходит лучше, чем MiMo-V2-Flash, когда глубина важнее скорости, и лучше, чем MiMo-V2-Omni, когда ваша нагрузка прежде всего текстовая, а не мультимодальная.

Ограничения

MiMo-V2-Pro позиционируется как агентная модель с приоритетом текста, поэтому нативные мультимодальные задачи лучше решать с помощью MiMo-V2-Omni. Как и в случае любой модели, ориентированной на бенчмарки, реальные результаты по-прежнему зависят от дизайна промптов, качества инструментов и того, как агент интегрирован в ваш стек.

ЧАВО

What makes Xiaomi MiMo-V2-Pro API different from MiMo-V2-Flash?

MiMo-V2-Pro is Xiaomi’s flagship agentic model for deeper workflows, while MiMo-V2-Flash is the efficiency-focused sibling. Xiaomi says Pro is built for real-world agent tasks, with over 1 trillion total parameters, 42 billion active parameters, and a 1 million-token context window.

How large is the Xiaomi MiMo-V2-Pro API context window?

Xiaomi says MiMo-V2-Pro supports up to 1 million tokens of context. That is the key spec to know if you need to keep huge codebases, long documents, or extended task histories in one run.

Can Xiaomi MiMo-V2-Pro API handle coding and multi-step agent workflows?

Yes. Xiaomi positions MiMo-V2-Pro as a model for production engineering tasks, complex workflows, and agent scaffolds. The company also says its coding ability surpasses Claude 4.6 Sonnet in internal evaluations.

When should I use Xiaomi MiMo-V2-Pro API instead of MiMo-V2-Omni?

Use MiMo-V2-Pro when your workload is text-first and centered on reasoning, code, or tool orchestration. Use MiMo-V2-Omni when you need native multimodal understanding across text, vision, and speech.

How does Xiaomi MiMo-V2-Pro API compare with Claude Opus 4.6 and GPT-5.2?

Xiaomi reports MiMo-V2-Pro at 61.5 on ClawEval, compared with 66.3 for Claude Opus 4.6 and 50.0 for GPT-5.2 on the same chart. Xiaomi also says Pro is close to Opus 4.6 on general agent performance and ranks #8 globally on the Artificial Analysis Intelligence Index.

What are the known limitations of Xiaomi MiMo-V2-Pro API?

MiMo-V2-Pro is optimized for agentic text workflows, so it is not the family member to choose for native multimodal input. For image, video, or speech-heavy jobs, Xiaomi’s MiMo-V2-Omni is the better match.

How do I integrate Xiaomi MiMo-V2-Pro API with an OpenAI-compatible client?

OpenClaw documents the Xiaomi provider as OpenAI-compatible, which means you can use an OpenAI-style client with Xiaomi’s base URL and model ID. In practice, that makes it straightforward to swap in mimo-v2-pro as the model name while keeping your existing chat-completions flow.

Is Xiaomi MiMo-V2-Pro API suitable for long document analysis?

Yes. The 1 million-token context window makes MiMo-V2-Pro a strong fit for very long source documents, support tickets, policy packs, or repository-scale analysis where smaller-context models would truncate too early.

Функции для mimo-v2-pro

Изучите ключевые функции mimo-v2-pro, разработанные для повышения производительности и удобства использования. Узнайте, как эти возможности могут принести пользу вашим проектам и улучшить пользовательский опыт.

Цены для mimo-v2-pro

Изучите конкурентоспособные цены на mimo-v2-pro, разработанные для различных бюджетов и потребностей использования. Наши гибкие планы гарантируют, что вы платите только за то, что используете, что упрощает масштабирование по мере роста ваших требований. Узнайте, как mimo-v2-pro может улучшить ваши проекты, сохраняя при этом управляемые расходы.
Цена Comet (USD / M Tokens)Официальная цена (USD / M Tokens)Скидка
Ввод:$0.8/M
Вывод:$2.4/M
Ввод:$1/M
Вывод:$3/M
-20%

Пример кода и API для mimo-v2-pro

Получите доступ к исчерпывающим примерам кода и ресурсам API для mimo-v2-pro, чтобы упростить процесс интеграции. Наша подробная документация предоставляет пошаговые инструкции, помогая вам использовать весь потенциал mimo-v2-pro в ваших проектах.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"

client = OpenAI(api_key=COMETAPI_KEY, base_url="https://api.cometapi.com/v1")

stream = client.chat.completions.create(
    model="mimo-v2-pro",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Explain the Monty Hall problem step by step."},
    ],
    stream=True,
    extra_body={"thinking": {"type": "enabled"}},
)

thinking = False
for chunk in stream:
    delta = chunk.choices[0].delta
    reasoning = (delta.model_extra or {}).get("reasoning_content")
    if reasoning:
        if not thinking:
            print("<thinking>")
            thinking = True
        print(reasoning, end="", flush=True)
    elif thinking and delta.content:
        print("
</thinking>
")
        thinking = False
        print(delta.content, end="", flush=True)
    elif delta.content:
        print(delta.content, end="", flush=True)

Больше моделей