Especificações técnicas do MiniMax‑M2.5
| Campo | Declaração / valor |
|---|---|
| Nome do modelo | MiniMax-M2.5 (versão de produção, 12 de fevereiro de 2026). |
| Arquitetura | Transformer Mixture-of-Experts (MoE) (família M2). |
| Parâmetros totais | ~230 bilhões (capacidade total do MoE). |
| Parâmetros ativos (por inferência) | ~10 bilhões ativados por inferência (ativação esparsa). |
| Tipos de entrada | Texto e código (suporte nativo a contextos de código multi‑arquivo), interfaces de chamadas de ferramentas / API (fluxos de trabalho orientados a agentes). |
| Tipos de saída | Texto, saídas estruturadas (JSON/chamadas de ferramentas), código (multi‑arquivo), artefatos do Office (PPT/Excel/Word via cadeias de ferramentas). |
| Variantes / modos | M2.5 (alta precisão/capacidade) e M2.5-Lightning (mesma qualidade, menor latência / TPS mais alto). |
O que é o MiniMax‑M2.5?
MiniMax‑M2.5 é a atualização principal da família M2.x com foco na produtividade do mundo real e em fluxos de trabalho orientados a agentes. O lançamento enfatiza melhorias na decomposição de tarefas, integração com ferramentas/pesquisa, fidelidade na geração de código e eficiência de tokens para problemas extensos e de múltiplas etapas. O modelo é oferecido em uma variante padrão e em uma variante “lightning” de menor latência, voltadas para diferentes trade-offs de implantação.
Principais recursos do MiniMax‑M2.5
- Design orientado a agentes: planejamento aprimorado e orquestração de ferramentas para tarefas multietapas (pesquisa, chamadas de ferramentas, mecanismos de execução de código).
- Eficiência de tokens: reduções relatadas no consumo de tokens por tarefa em comparação com o M2.1, permitindo menores custos de ponta a ponta para fluxos de trabalho longos.
- Conclusão de ponta a ponta mais rápida: relatórios de benchmarking do provedor indicam tempos médios de conclusão de tarefas ~37% mais rápidos que o M2.1 em avaliações de codificação orientadas a agentes.
- Forte compreensão de código: ajustado em corpora de código multilíngue para refatorações robustas entre linguagens, edições multi‑arquivo e raciocínio em escala de repositórios.
- Atendimento com alta taxa de transferência: voltado para implantações de produção com perfis altos de tokens/s; adequado para cargas contínuas de agentes.
- Variantes para trade-offs entre latência e desempenho: M2.5‑lightning oferece menor latência com menor computação e footprint para cenários interativos.
Desempenho em benchmarks (reportado)
Destaques relatados pelo provedor — métricas representativas (lançamento):
- SWE‑Bench Verified: 80,2% (taxa de aprovação relatada nos harnesses de benchmark do provedor)
- BrowseComp (pesquisa e uso de ferramentas): 76,3%
- Multi‑SWE‑Bench (codificação multilíngue): 51,3%
- Velocidade / eficiência relativas: ~37% mais rápido na conclusão de ponta a ponta vs M2.1 no SWE‑Bench Verified em testes do provedor; ~20% menos rodadas de pesquisa/ferramentas em algumas avaliações.
Interpretação: Esses números colocam o M2.5 em paridade com, ou próximo a, modelos líderes do setor em agentes/código nos benchmarks citados. Os benchmarks são relatados pelo provedor e reproduzidos por vários canais do ecossistema — trate‑os como medidos sob o harness/configuração do provedor, a menos que sejam reproduzidos de forma independente.
MiniMax‑M2.5 vs pares (comparação concisa)
| Dimensão | MiniMax‑M2.5 | MiniMax M2.1 | Exemplo de par (Anthropic Opus 4.6) |
|---|---|---|---|
| SWE‑Bench Verified | 80,2% | ~71–76% (varia por harness) | Comparável (Opus relatou resultados próximos aos melhores) |
| Velocidade em tarefas com agentes | 37% mais rápido vs M2.1 (testes do provedor) | Linha de base | Velocidade semelhante em harnesses específicos |
| Eficiência de tokens | Melhor vs M2.1 (~menos tokens por tarefa) | Maior uso de tokens | Competitivo |
| Melhor uso | Fluxos de trabalho de agentes em produção, pipelines de codificação | Geração anterior da mesma família | Forte em raciocínio multimodal e tarefas com foco em segurança |
Nota do provedor: as comparações derivam de materiais de lançamento e relatórios de benchmark de fornecedores. Pequenas diferenças podem ser sensíveis ao harness, à cadeia de ferramentas e ao protocolo de avaliação.
Casos de uso empresariais representativos
- Refatorações em escala de repositório e pipelines de migração — preservar a intenção em edições multi‑arquivo e patches de PR automatizados.
- Orquestração orientada a agentes para DevOps — orquestrar execuções de testes, etapas de CI, instalações de pacotes e diagnósticos de ambiente com integrações de ferramentas.
- Revisão e remediação de código automatizadas — triagem de vulnerabilidades, proposição de correções mínimas e preparação de casos de teste reprodutíveis.
- Recuperação de informações orientada por pesquisa — aproveitar a competência de pesquisa em nível BrowseComp para realizar exploração em múltiplas rodadas e sumarização de bases de conhecimento técnicas.
- Agentes e assistentes de produção — agentes contínuos que exigem inferência de longa duração estável e com bom custo‑benefício.
Como acessar e integrar o MiniMax‑M2.5
Etapa 1: Cadastre‑se para obter a chave de API
Faça login em cometapi.com. Se você ainda não é nosso usuário, registre‑se primeiro. Acesse seu console do CometAPI. Obtenha a chave de API de credenciais de acesso da interface. Clique em “Add Token” no token de API no centro pessoal, obtenha a chave do token: sk-xxxxx e envie.
Etapa 2: Envie solicitações para a API minimax-m2.5
Selecione o endpoint “minimax-m2.5” para enviar a solicitação de API e defina o corpo da solicitação. O método e o corpo da solicitação são obtidos na documentação de API do nosso site. Nosso site também oferece teste no Apifox para sua conveniência. Substitua <YOUR_API_KEY> pela sua chave real do CometAPI na sua conta. Onde chamar: formato de Chat.
Insira sua pergunta ou solicitação no campo content — é isso ao que o modelo responderá. Procese a resposta da API para obter a resposta gerada.
Etapa 3: Recupere e verifique os resultados
Procese a resposta da API para obter a resposta gerada. Após o processamento, a API responde com o status da tarefa e os dados de saída.