MiniMax, la startup china de inteligencia artificial, ha publicado los pesos y las herramientas para MiniMax M2, su nuevo modelo de lenguaje de gran tamaño, diseñado específicamente para flujos de trabajo de codificación y el uso de herramientas de agente. La compañía afirma que el M2 está diseñado con un eficiente diseño de mezcla de expertos (MoE) que ofrece codificación y rendimiento de agente de primer nivel a una fracción del costo de modelos propietarios comparables. Explicaré por qué MiniMax M2 es el rey de la rentabilidad en cuanto a características, rendimiento de referencia, arquitectura y costo.
¿Qué es MiniMax M2?
MiniMax M2 es el último modelo de lenguaje grande de código abierto de MiniMax, diseñado principalmente para codificación, flujos de trabajo de agentes de varios pasos y llamadas a herramientasEl modelo utiliza una arquitectura de mezcla de expertos: tiene una gran total huella de parámetros, pero sólo un número modesto de parámetros son activado por token durante la inferencia: un diseño que reduce el costo de inferencia y la latencia al tiempo que preserva la capacidad de razonamiento y codificación sólidas.
Números principales (según se publicaron)
- Presupuesto total de parámetros: ~230 mil millones (en total).
- Parámetros activados/efectivos por token: ~10 mil millones (activados).
- Ventana de contexto (informada): hasta ~204,800 tokens
- Licencia: MIT (pesos de código abierto).
- Afirmaciones sobre costos y velocidad: Su coste por token es solo el 8% del Anthropic Claude Sonnet y su velocidad es aproximadamente el doble de rápida.
¿Cuáles son las características principales del MiniMax M2?
Comportamiento agente/orientado a herramientas
MiniMax M2 Incluye compatibilidad explícita con llamadas a herramientas, indicaciones estructuradas y patrones intercalados de razonamiento → acción → verificación, lo que facilita la creación de agentes autónomos que llaman a API externas, ejecutan código u operan terminales. Varias recetas de integración se centran en los entornos de ejecución de los agentes y en las pilas de vLLM/aceleración.
Optimizado para codificación y tareas de múltiples archivos
Los benchmarks reportados en Hugging Face y análisis de terceros muestran un excelente rendimiento en conjuntos de pruebas orientados al desarrollador (pruebas unitarias, simulación de terminal, síntesis multiarchivo), donde M2 obtiene una alta puntuación en comparación con otros modelos abiertos y cerrados. Esto coincide con el énfasis declarado de MiniMax en las herramientas para desarrolladores y los asistentes de programación.
Eficiencia de la mezcla dispersa de expertos (MoE)
En lugar de un único conjunto de parámetros denso, MiniMax M2 utiliza una Mezcla dispersa de expertos Estrategia de enrutamiento para que solo se active un subconjunto del banco completo de parámetros por token. Esto produce un gran recuento total de parámetros, pero mucho menor. activado Huella de parámetros durante la inferencia, lo que mejora la eficiencia en términos de costos y latencia para muchas cargas de trabajo.
¿Cómo funciona internamente MiniMax M2?
Arquitectura de alto nivel
Según las divulgaciones técnicas y los informes independientes de MiniMax, MiniMax M2 se implementa como un transformador MoE disperso con las siguientes decisiones de diseño, ampliamente difundidas:
- Muy grande total recuento de parámetros (según se informa en la cobertura de prensa como del orden de cientos de miles de millones), con solo un subconjunto de expertos activados por token (La prensa menciona ejemplos como un total de 230 000 millones de unidades con aproximadamente 10 000 millones de unidades activas por inferencia en los primeros informes). Este es el equilibrio clásico del MoE: capacidad de escala sin coste de inferencia lineal.
- Enrutamiento: enrutamiento de expertos top-k (Top-2 o Top-K) que envía cada token a una pequeña cantidad de expertos para que la carga computacional sea escasa y predecible.
- Codificación de atención y posición: Los patrones de atención híbridos (p. ej., combinaciones de núcleos de atención densos y eficientes) y las codificaciones posicionales modernas de tipo rotatorio o RoPE se mencionan en la documentación del modelo comunitario y en la tarjeta del modelo Hugging Face. Estas opciones mejoran el comportamiento en contextos largos, importante para la codificación multiarchivo y la memoria del agente.
Por qué un MoE disperso ayuda a los flujos de trabajo de agentes
Los flujos de trabajo de Agentic suelen requerir una combinación de razonamiento, generación de código, orquestación de herramientas y planificación con estado. Con MoE, MiniMax M2 Puede permitirse muchos submódulos de expertos especializados (p. ej., expertos con mejor dominio del código, expertos optimizados para el formateo de herramientas, expertos para la recuperación de datos) y activar solo los expertos necesarios para cada token. Esta especialización mejora el rendimiento y la precisión de las tareas compuestas, a la vez que reduce el coste de inferencia en comparación con un modelo denso uniformemente grande.
Notas de entrenamiento y puesta a punto (lo que publicó MiniMax)
MiniMax cita una mezcla de código, ajuste de instrucciones, texto web y conjuntos de datos de bucle de agente para la fluidez de instrucciones y herramientas de M2.
¿Por qué MoE para agentes y código?
MoE permite aumentar la capacidad del modelo (para un mejor razonamiento y capacidad multimodal) sin aumentar linealmente los FLOP de inferencia de cada token. Para agentes y asistentes de codificación, que frecuentemente realizan numerosas consultas breves e interactivas y llaman a herramientas externas, la activación selectiva de MoE mantiene una latencia y una factura de la nube razonables, a la vez que conserva las ventajas de capacidad de un modelo muy grande.
Rendimiento de referencia
Según evaluaciones independientes de Artificial Analysis, una organización de investigación y referencia de modelos de IA generativos de terceros, M2 actualmente ocupa el primer puesto entre todos los sistemas ponderados de código abierto a nivel mundial en el “Índice de inteligencia”, una medida integral del razonamiento, la codificación y el rendimiento de ejecución de tareas.

La tarjeta modelo de MiniMax muestra resultados comparativos entre codificación / agencia Conjuntos de benchmarks (SWE-bench, Terminal-Bench, BrowseComp, GAIA, τ²-Bench, etc.). En las tablas publicadas, M2 muestra puntuaciones altas en tareas de codificación y herramientas multipaso, y MiniMax destaca las puntuaciones compuestas de inteligencia competitiva/agentismo en comparación con otros modelos abiertos.
Estas puntuaciones lo sitúan al nivel o cerca del nivel de los mejores sistemas propietarios como GPT-5 (pensamiento) y Claude Sonnet 4.5, lo que convierte a MiniMax-M2 en el modelo abierto de mayor rendimiento hasta la fecha en tareas de invocación de herramientas y agentes del mundo real.

MiniMax-M2 alcanza un rendimiento superior o casi superior en muchas categorías:
- SWE-bench verificado: 69.4, cerca del 74.9 de GPT-5
- ArtifactsBench: 66.8 — por encima de Claude Sonnet 4.5 y DeepSeek-V3.2
- τ²-Bench: 77.2 — acercándose al 80.1 de GPT-5
- GAIA (solo texto): 75.7 — superando a DeepSeek-V3.2
- BrowseComp: 44.0 — notablemente más fuerte que otros modelos abiertos
- FinSearchComp-global: 65.5 — el mejor entre los sistemas de peso abierto probados
Costo y precios
MiniMax lista públicamente un precio de API muy competitivo de $0.30 por cada 1,000,000 de tokens de entrada y $1.20 por cada 1,000,000 de tokens de salidaLa empresa también informa una cifra de rendimiento de inferencia (TPS) en su punto final alojado de ~100 tokens/seg (y afirma que lo están mejorando). CometAPI ofrece un 20% de descuento en el precio oficial para acceder a la API de MiniMax M2.
Interpretación rápida
- Los tokens de entrada son extremadamente baratos por token en relación con muchos modelos comerciales; los tokens de salida son más caros, pero aún bajos en comparación con muchas alternativas cerradas.
- El rendimiento (tokens/s) y la latencia dependerán en gran medida de las opciones de implementación (alojadas o autoalojadas, tipo de GPU, procesamiento por lotes, cuantificación). Utilice el TPS publicado solo como referencia para la planificación de APIs alojadas.
¿Cuáles son los mejores casos de uso para MiniMax M2?
1) Asistentes de desarrollo de extremo a extremo (creación de código → ejecución → reparación → verificación)
MiniMax M2 está diseñado específicamente para ediciones de múltiples archivos, bucles de compilación/ejecución/reparación, y automatización de CI/IDE, donde el modelo debe recordar grandes bases de código o largas transcripciones de terminal y orquestar las llamadas a herramientas (compilación, prueba, lint, git). Los benchmarks y las primeras pruebas de la comunidad lo sitúan en un lugar destacado entre las suites de codificación/agentic.
Flujo típico: obtener repositorio → ejecutar pruebas dentro del entorno protegido → analizar fallas → producir parche → ejecutar pruebas nuevamente → abrir PR si está verde.
2) Agentes multipaso y RPA (herramientas + memoria)
Las aplicaciones de agente que requieren planificación, invocación de herramientas y recuperación (navegación web, terminal, base de datos, API personalizadas) se benefician del contexto extenso y de la invocación estructurada de funciones y herramientas. La capacidad de contexto extenso de M2 permite mantener planes, registros y estados en memoria sin necesidad de una recuperación externa intensiva.
3) Razonamiento de documentos largos y atención al cliente (manuales y guías)
Debido a que M2 admite contextos muy grandes, puede alimentar manuales de productos completos, libros de estrategias o largos historiales de conversaciones de usuarios sin una fragmentación excesiva, lo que resulta ideal para la automatización de soporte enriquecida con contexto, razonamiento de políticas y controles de cumplimiento.
4) Investigación y experimentación (pesos abiertos, uso permisivo)
Con pesos abiertos en Hugging Face, se pueden ejecutar experimentos (ajustes personalizados, investigación de MoE, nuevas estrategias de enrutamiento o mecanismos de seguridad) localmente o en clústeres privados. Esto hace que M2 sea atractivo para laboratorios y equipos que buscan control total.
Recomendaciones prácticas para ingenieros y equipos de productos
Si quieres una experimentación rápida: Utilice la API en la nube de MiniMax (compatible con Anthropic/OpenAI). Elimina la fricción de la infraestructura local y le brinda acceso inmediato a llamadas de herramientas y funciones de contexto extenso.
Si necesita control y optimización de costes: Descargue las ponderaciones de Hugging Face y sírvalas con vLLM o SGLang. Prepárese para invertir en ingeniería para la fragmentación de MoE y un ajuste preciso de la inferencia. Evalúe la memoria, el costo y la latencia con su carga de trabajo real (agentes multi-turno y tareas de código multi-archivo).
Pruebas y seguridad: Ejecute sus propias pruebas de equipo rojo, filtros de seguridad y validación de herramientas. Las ponderaciones abiertas aceleran la investigación, pero también permiten que los actores maliciosos puedan iterar rápidamente; cree detectores y controles humanos cuando sea necesario.
Conclusión
MiniMax M2 representa un hito en el ecosistema LLM de código abierto: un modelo grande, centrado en agentes y con licencias permisivas que prioriza la codificación y el uso de herramientas, a la vez que busca mantener un costo de inferencia viable mediante un enrutamiento de MoE disperso. Para organizaciones que desarrollan herramientas para desarrolladores, agentes autónomos o equipos de investigación que necesitan acceder a ponderaciones para realizar ajustes, M2 ofrece una opción atractiva y de uso inmediato, siempre que el equipo esté preparado para gestionar la complejidad de la implementación de MoE.
Cómo acceder a la API de MiniMax M2
CometAPI es una plataforma API unificada que integra más de 500 modelos de IA de proveedores líderes, como la serie GPT de OpenAI, Gemini de Google, Claude de Anthropic, Midjourney, Suno y más, en una única interfaz intuitiva para desarrolladores. Al ofrecer autenticación, formato de solicitudes y gestión de respuestas consistentes, CometAPI simplifica drásticamente la integración de las capacidades de IA en sus aplicaciones. Ya sea que esté desarrollando chatbots, generadores de imágenes, compositores musicales o canales de análisis basados en datos, CometAPI le permite iterar más rápido, controlar costos y mantenerse independiente del proveedor, todo mientras aprovecha los últimos avances del ecosistema de IA.
Los desarrolladores pueden acceder API Minimax M2 a través de CometAPI, la última versión del modelo Se actualiza constantemente con el sitio web oficial. Para empezar, explora las capacidades del modelo en el Playground y consultar el Guía de API Para obtener instrucciones detalladas, consulte la sección "Antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API". CometAPI Ofrecemos un precio muy inferior al oficial para ayudarte a integrarte.
¿Listo para ir?→ Regístrate en CometAPI hoy !
Si quieres conocer más consejos, guías y novedades sobre IA síguenos en VK, X y Discord!
