Especificaciones técnicas de MiniMax‑M2.5
| Campo | Afirmación / valor |
|---|---|
| Nombre del modelo | MiniMax-M2.5 (lanzamiento de producción, 12 de febrero de 2026). |
| Arquitectura | Transformer de Mezcla de Expertos (MoE) (familia M2). |
| Parámetros totales | ~230 mil millones (capacidad total de MoE). |
| Parámetros activos (por inferencia) | ~10 mil millones activados por inferencia (activación dispersa). |
| Tipos de entrada | Texto y código (compatibilidad nativa con contextos de código de múltiples archivos), interfaces de llamadas a herramientas / API (flujos de trabajo agénticos). |
| Tipos de salida | Texto, salidas estructuradas (JSON/llamadas a herramientas), código (de múltiples archivos), artefactos de Office (PPT/Excel/Word mediante cadenas de herramientas). |
| Variantes / modos | M2.5 (alta precisión/capacidad) y M2.5-Lightning (misma calidad, menor latencia / mayor TPS). |
¿Qué es MiniMax‑M2.5?
MiniMax‑M2.5 es la actualización insignia de la familia M2.x centrada en la productividad del mundo real y los flujos de trabajo agénticos. El lanzamiento pone énfasis en una mejor descomposición de tareas, integración de herramientas/búsqueda, fidelidad en la generación de código y eficiencia de tokens para problemas extendidos de varios pasos. El modelo se ofrece en una variante estándar y otra de menor latencia, “lightning”, pensada para distintos compromisos de implementación.
Características principales de MiniMax‑M2.5
- Diseño centrado en agentes: Mejor planificación y orquestación de herramientas para tareas de varias etapas (búsqueda, llamadas a herramientas, entornos de ejecución de código).
- Eficiencia de tokens: Se reportan reducciones en el consumo de tokens por tarea en comparación con M2.1, lo que permite menores costos de extremo a extremo para flujos de trabajo largos.
- Finalización de extremo a extremo más rápida: Los benchmarks del proveedor informan tiempos promedio de finalización de tareas ~37% más rápidos que M2.1 en evaluaciones agénticas de codificación.
- Sólida comprensión de código: Ajustado con corpus de código multilingüe para refactorizaciones robustas entre lenguajes, ediciones de múltiples archivos y razonamiento a escala de repositorio.
- Servicio de alto rendimiento: Orientado a implementaciones en producción con perfiles altos de tokens/segundo; adecuado para cargas de trabajo continuas de agentes.
- Variantes para compensaciones entre latencia y potencia: M2.5‑lightning ofrece menor latencia con menor cómputo y huella para escenarios interactivos.
Rendimiento en benchmarks (reportado)
Aspectos destacados reportados por el proveedor — métricas representativas (lanzamiento):
- SWE‑Bench Verified: 80.2% (tasa de aprobación reportada en los entornos de benchmark del proveedor)
- BrowseComp (búsqueda y uso de herramientas): 76.3%
- Multi‑SWE‑Bench (codificación multilingüe): 51.3%
- Velocidad / eficiencia relativa: ~37% más rápido en finalización de extremo a extremo frente a M2.1 en SWE‑Bench Verified en pruebas del proveedor; ~20% menos rondas de búsqueda/herramientas en algunas evaluaciones.
Interpretación: Estas cifras sitúan a M2.5 a la par o cerca de los modelos agénticos/de código líderes de la industria en los benchmarks citados. Los benchmarks son reportados por el proveedor y reproducidos por varios medios del ecosistema; considérelos como medidos bajo el entorno/configuración del proveedor, salvo que se reproduzcan de forma independiente.
MiniMax‑M2.5 frente a sus pares (comparación concisa)
| Dimensión | MiniMax‑M2.5 | MiniMax M2.1 | Ejemplo de par (Anthropic Opus 4.6) |
|---|---|---|---|
| SWE‑Bench Verified | 80.2% | ~71–76% (varía según el entorno) | Comparable (Opus reportó resultados cercanos a la cima) |
| Velocidad de tareas agénticas | 37% más rápido frente a M2.1 (pruebas del proveedor) | Referencia base | Velocidad similar en entornos específicos |
| Eficiencia de tokens | Mejorada frente a M2.1 (~menos tokens por tarea) | Mayor uso de tokens | Competitiva |
| Mejor uso | Flujos de trabajo agénticos en producción, pipelines de codificación | Generación anterior de la misma familia | Fuerte en razonamiento multimodal y tareas ajustadas en seguridad |
Nota del proveedor: las comparaciones derivan de materiales de lanzamiento e informes de benchmarks del proveedor. Pequeñas diferencias pueden ser sensibles al entorno, la cadena de herramientas y el protocolo de evaluación.
Casos de uso empresariales representativos
- Refactorizaciones a escala de repositorio y pipelines de migración — preservar la intención en ediciones de múltiples archivos y parches de PR automatizados.
- Orquestación agéntica para DevOps — orquestar ejecuciones de pruebas, pasos de CI, instalaciones de paquetes y diagnósticos del entorno con integraciones de herramientas.
- Revisión y remediación automatizadas de código — clasificar vulnerabilidades, proponer correcciones mínimas y preparar casos de prueba reproducibles.
- Recuperación de información impulsada por búsqueda — aprovechar una competencia de búsqueda al nivel de BrowseComp para realizar exploración de múltiples rondas y resúmenes de bases de conocimiento técnico.
- Agentes y asistentes de producción — agentes continuos que requieren una inferencia estable de larga duración y eficiente en costos.
Cómo acceder e integrar MiniMax‑M2.5
Paso 1: Regístrese para obtener una API Key
Inicie sesión en cometapi.com. Si aún no es usuario nuestro, regístrese primero. Inicie sesión en su consola de CometAPI. Obtenga la credencial de acceso API key de la interfaz. Haga clic en “Add Token” en la sección de API token del centro personal, obtenga la clave del token: sk-xxxxx y envíela.
Paso 2: Envíe solicitudes a la API minimax-m2.5
Seleccione el endpoint “minimax-m2.5” para enviar la solicitud de API y configure el cuerpo de la solicitud. El método de solicitud y el cuerpo de la solicitud se obtienen de la documentación de API de nuestro sitio web. Nuestro sitio web también ofrece pruebas con Apifox para su comodidad. Reemplace <YOUR_API_KEY> por su clave real de CometAPI de su cuenta. Dónde llamarlo: formato de Chat.
Inserte su pregunta o solicitud en el campo content; esto es a lo que responderá el modelo. Procese la respuesta de la API para obtener la respuesta generada.
Paso 3: Recupere y verifique los resultados
Procese la respuesta de la API para obtener la respuesta generada. Después del procesamiento, la API responde con el estado de la tarea y los datos de salida.