Especificaciones técnicas de MiniMax‑M2.5
| Campo | Afirmación / valor |
|---|---|
| Nombre del modelo | MiniMax-M2.5 (versión de producción, 12 de febrero de 2026). |
| Arquitectura | Transformer de Mezcla de Expertos (MoE) (familia M2). |
| Parámetros totales | ~230 mil millones (capacidad total de MoE). |
| Parámetros activos (por inferencia) | ~10 mil millones activados por inferencia (activación dispersa). |
| Tipos de entrada | Texto y código (compatibilidad nativa con contextos de código de múltiples archivos), llamadas a herramientas / interfaces de herramientas de API (flujos de trabajo agénticos). |
| Tipos de salida | Texto, salidas estructuradas (JSON/llamadas a herramientas), código (multiarchivo), artefactos de Office (PPT/Excel/Word mediante cadenas de herramientas). |
| Variantes / modos | M2.5 (alta precisión/capacidad) y M2.5-Lightning (misma calidad, menor latencia / mayor TPS). |
¿Qué es MiniMax‑M2.5?
MiniMax‑M2.5 es la actualización insignia de la familia M2.x enfocada en productividad en el mundo real y flujos de trabajo agénticos. La versión enfatiza una mejor descomposición de tareas, integración de herramientas/búsqueda, fidelidad en la generación de código y eficiencia de tokens para problemas extendidos de múltiples pasos. El modelo se ofrece en una variante estándar y una variante “lightning” de menor latencia, pensadas para diferentes compensaciones de implementación.
Características principales de MiniMax‑M2.5
- Diseño centrado en agentes: Planificación y orquestación de herramientas mejoradas para tareas de múltiples etapas (búsqueda, llamadas a herramientas, arneses de ejecución de código).
- Eficiencia de tokens: Reducciones reportadas en el consumo de tokens por tarea frente a M2.1, habilitando menores costos de extremo a extremo para flujos de trabajo largos.
- Finalización extremo a extremo más rápida: Los informes de evaluación del proveedor indican tiempos promedio de finalización de tareas ~37% más rápidos que M2.1 en evaluaciones agénticas de codificación.
- Sólida comprensión de código: Ajustado en corpus de código multilenguaje para refactorizaciones robustas entre lenguajes, ediciones multiarchivo y razonamiento a escala de repositorio.
- Servicio de alto rendimiento: Orientado a despliegues en producción con perfiles altos de tokens/seg; adecuado para cargas de trabajo de agentes continuos.
- Variantes para compensaciones entre latencia y potencia: M2.5‑lightning ofrece menor latencia con menor cómputo y huella para escenarios interactivos.
Rendimiento en benchmarks (reportado)
Destacados reportados por el proveedor — métricas representativas (lanzamiento):
- SWE‑Bench Verified: 80.2% (tasa de aprobación reportada en los entornos de evaluación del proveedor)
- BrowseComp (búsqueda y uso de herramientas): 76.3%
- Multi‑SWE‑Bench (programación multilingüe): 51.3%
- Velocidad / eficiencia relativa: ~37% más rápida en finalización de extremo a extremo vs M2.1 en SWE‑Bench Verified en pruebas del proveedor; ~20% menos rondas de búsqueda/uso de herramientas en algunas evaluaciones.
Interpretación: Estos números sitúan a M2.5 en paridad con o cerca de los modelos agénticos/de código líderes de la industria en los benchmarks citados. Los benchmarks son reportados por el proveedor y reproducidos por varios medios del ecosistema; considérelos medidos bajo el marco/configuración del proveedor a menos que se reproduzcan de forma independiente.
MiniMax‑M2.5 vs pares (comparación concisa)
| Dimensión | MiniMax‑M2.5 | MiniMax M2.1 | Ejemplo de par (Anthropic Opus 4.6) |
|---|---|---|---|
| SWE‑Bench Verified | 80.2% | ~71–76% (varía según el entorno) | Comparable (Opus reportó resultados cercanos al tope) |
| Velocidad en tareas agénticas | 37% más rápida vs M2.1 (pruebas del proveedor) | Línea base | Velocidad similar en arneses específicos |
| Eficiencia de tokens | Mejorada vs M2.1 (~menos tokens por tarea) | Mayor uso de tokens | Competitiva |
| Mejor uso | Flujos de trabajo agénticos de producción, canalizaciones de código | Generación anterior de la misma familia | Sólido en razonamiento multimodal y tareas afinadas para seguridad |
Nota del proveedor: las comparaciones provienen de materiales de lanzamiento y reportes de benchmarks de proveedores. Pequeñas diferencias pueden ser sensibles al marco, cadena de herramientas y protocolo de evaluación.
Casos de uso empresariales representativos
- Refactorizaciones a escala de repositorio y canalizaciones de migración — conservar la intención a lo largo de ediciones multiarchivo y parches de PR automatizados.
- Orquestación agéntica para DevOps — orquestar ejecuciones de pruebas, pasos de CI, instalaciones de paquetes y diagnósticos de entorno con integraciones de herramientas.
- Revisión y remediación de código automatizadas — priorizar vulnerabilidades, proponer correcciones mínimas y preparar casos de prueba reproducibles.
- Recuperación de información impulsada por búsqueda — aprovechar la competencia de búsqueda a nivel BrowseComp para realizar exploración multirronda y resumir bases de conocimiento técnicas.
- Agentes y asistentes de producción — agentes continuos que requieren inferencia de larga duración, estable y rentable.
Cómo acceder e integrar MiniMax‑M2.5
Paso 1: Regístrate para obtener la clave de API
Inicia sesión en cometapi.com. Si aún no eres nuestro usuario, regístrate primero. Inicia sesión en tu Consola de CometAPI. Obtén la credencial de acceso (clave de API) de la interfaz. Haz clic en “Add Token” en el token de API en el centro personal, obtén la clave del token: sk-xxxxx y envía.
Paso 2: Envía solicitudes a la API minimax-m2.5
Selecciona el endpoint “minimax-m2.5” para enviar la solicitud de API y configura el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de API de nuestro sitio web. Nuestro sitio web también proporciona pruebas en Apifox para tu conveniencia. Reemplaza <YOUR_API_KEY> por tu clave real de CometAPI de tu cuenta. Dónde llamarlo: formato Chat.
Inserta tu pregunta o solicitud en el campo content — esto es a lo que el modelo responderá. Procesa la respuesta de la API para obtener la respuesta generada.
Paso 3: Recupera y verifica los resultados
Procesa la respuesta de la API para obtener la respuesta generada. Después del procesamiento, la API responde con el estado de la tarea y los datos de salida.