Especificações técnicas do MiniMax‑M2.5
| Campo | Declaração / valor |
|---|---|
| Nome do modelo | MiniMax-M2.5 (versão de produção, 12 de fev. de 2026). |
| Arquitetura | Transformer de Mistura de Especialistas (MoE) (família M2). |
| Parâmetros totais | ~230 bilhões (capacidade total do MoE). |
| Parâmetros ativos (por inferência) | ~10 bilhões ativados por inferência (ativação esparsa). |
| Tipos de entrada | Texto e código (suporte nativo a contextos de código com múltiplos arquivos), chamadas de ferramentas / interfaces de ferramentas de API (fluxos de trabalho baseados em agentes). |
| Tipos de saída | Texto, saídas estruturadas (JSON/chamadas de ferramenta), código (múltiplos arquivos), artefatos do Office (PPT/Excel/Word via cadeias de ferramentas). |
| Variantes / modos | M2.5 (alta precisão/capacidade) e M2.5‑Lightning (mesma qualidade, menor latência / TPS mais alto). |
O que é o MiniMax‑M2.5?
MiniMax‑M2.5 é a atualização principal da família M2.x, focada em produtividade no mundo real e fluxos de trabalho baseados em agentes. O lançamento enfatiza melhorias na decomposição de tarefas, integração com ferramentas/pesquisa, fidelidade na geração de código e eficiência de tokens para problemas extensos, de múltiplas etapas. O modelo é oferecido nas variantes padrão e “lightning”, de menor latência, voltadas a diferentes compensações de implantação.
Principais recursos do MiniMax‑M2.5
- Design orientado a agentes: Planejamento e orquestração de ferramentas aprimorados para tarefas multiestágio (pesquisa, chamadas de ferramentas, estruturas de execução de código).
- Eficiência de tokens: Reduções relatadas no consumo de tokens por tarefa em comparação ao M2.1, permitindo custos ponta a ponta menores em fluxos longos.
- Conclusão ponta a ponta mais rápida: Relatórios de benchmark do provedor apontam tempos médios de conclusão de tarefas ~37% mais rápidos que o M2.1 em avaliações de codificação com agentes.
- Forte compreensão de código: Ajustado em corpora de código multilíngues para refatorações robustas entre linguagens, edições em múltiplos arquivos e raciocínio em escala de repositório.
- Atendimento com alto throughput: Direcionado a implantações de produção com perfis altos de tokens/seg; adequado a cargas contínuas de agentes.
- Variantes para compensações entre latência e potência: O M2.5‑lightning oferece menor latência com menor computação e pegada para cenários interativos.
Desempenho em benchmarks (reportado)
Destaques reportados pelo provedor — métricas representativas (lançamento):
- SWE‑Bench Verified: 80,2% (taxa de aprovação relatada nos harnesses de benchmark do provedor)
- BrowseComp (pesquisa e uso de ferramentas): 76,3%
- Multi‑SWE‑Bench (codificação multilíngue): 51,3%
- Velocidade/eficiência relativa: ~37% mais rápido na conclusão ponta a ponta vs. M2.1 no SWE‑Bench Verified em testes do provedor; ~20% menos rodadas de pesquisa/ferramentas em algumas avaliações.
Interpretação: Esses números colocam o M2.5 em paridade com, ou próximo de, modelos líderes do setor em agentes/código nos benchmarks citados. Os benchmarks são reportados pelo provedor e reproduzidos por diversos canais do ecossistema — considere-os como medidos sob o harness/configuração do provedor, a menos que reproduzidos de forma independente.
MiniMax‑M2.5 vs. pares (comparação concisa)
| Dimensão | MiniMax‑M2.5 | MiniMax M2.1 | Exemplo de par (Anthropic Opus 4.6) |
|---|---|---|---|
| SWE‑Bench Verified | 80,2% | ~71–76% (varia por harness) | Comparável (Opus reportou resultados de topo) |
| Velocidade em tarefas com agentes | 37% mais rápida vs. M2.1 (testes do provedor) | Linha de base | Velocidade similar em harnesses específicos |
| Eficiência de tokens | Melhorada vs. M2.1 (~menos tokens por tarefa) | Uso de tokens mais alto | Competitiva |
| Melhor uso | Fluxos de trabalho de produção com agentes, pipelines de codificação | Geração anterior da mesma família | Forte em raciocínio multimodal e tarefas com ajuste de segurança |
Nota do provedor: as comparações derivam de materiais de lançamento e relatórios de benchmark de fornecedores. Pequenas diferenças podem ser sensíveis ao harness, cadeia de ferramentas e protocolo de avaliação.
Casos de uso empresariais representativos
- Refatorações em escala de repositório e pipelines de migração — preservar a intenção em edições de múltiplos arquivos e patches de PR automatizados.
- Orquestração com agentes para DevOps — orquestrar execuções de testes, etapas de CI, instalações de pacotes e diagnósticos de ambiente com integrações de ferramentas.
- Revisão e remediação de código automatizadas — triagem de vulnerabilidades, proposição de correções mínimas e preparação de casos de teste reproduzíveis.
- Recuperação de informações orientada a pesquisa — aproveitar competência de pesquisa em nível BrowseComp para exploração em múltiplas rodadas e sumarização de bases de conhecimento técnicas.
- Agentes e assistentes de produção — agentes contínuos que exigem inferência duradoura, estável e com boa relação custo-eficácia.
Como acessar e integrar o MiniMax‑M2.5
Passo 1: Cadastre-se para obter a chave de API
Faça login em cometapi.com. Se você ainda não é nosso usuário, registre-se primeiro. Acesse seu CometAPI console. Obtenha a credencial de acesso (API key) da interface. Clique em “Add Token” na seção de token de API no centro pessoal, obtenha a chave do token: sk-xxxxx e envie.
Passo 2: Envie solicitações para a API minimax-m2.5
Selecione o endpoint “minimax-m2.5” para enviar a solicitação de API e defina o corpo da solicitação. O método e o corpo da solicitação são obtidos na documentação da API em nosso site. Nosso site também fornece teste no Apifox para sua conveniência. Substitua <YOUR_API_KEY> pela sua chave CometAPI real da sua conta. Onde chamar: formato Chat.
Insira sua pergunta ou solicitação no campo de conteúdo — é isso que o modelo irá responder. Processe a resposta da API para obter a resposta gerada.
Passo 3: Recuperar e verificar os resultados
Processe a resposta da API para obter a resposta gerada. Após o processamento, a API responde com o status da tarefa e os dados de saída.