MiniMax M2 est un open-source, natif de l'agent Modèle de langage étendu (LLM) publié par MiniMax sur 27 octobre 2025Il est conçu spécifiquement pour Coding et flux de travail agentiques (appel d'outils, automatisation en plusieurs étapes), priorisation faible latence et rentable servir tout en faisant preuve de solides compétences en matière de raisonnement et d'utilisation des outils.
Fonctionnalités
Points forts - spécialisation en programmation, flux de travail agentiques, faible empreinte des paramètres actifs, support de contexte long, API compatible OpenAI. Positions MiniMax Minimax M2 en tant que Modèle de ministère de l'Éducation rapide et facile à déployer destiné aux agents multi-étapes, à la génération et à la réparation de code, aux flux de travail de terminal/IDE et à l'appel d'outils.
Puces notables (rapides) :
- Archi Mélange d'experts (MoE) avec un nombre total de paramètres très élevé et un petit activé Paramètre défini par passe avant.
- Empreinte d'activation : ~10 milliards de paramètres actifs (par jeton).
- Nombre total de paramètres (signalés) : signalé entre ~200B – 230B selon la source/métrique (voir Détails techniques).
- Fenêtre contextuelle : contexte long à l'échelle de l'entreprise ; Jetons 204,800 contexte maximal.
- Modalité principale : texte (appel d'outil / appel de fonction pris en charge).
- Agent-natif:conçu pour l'appel d'outils en plusieurs étapes (shell, navigateur, interpréteur Python, outils MCP).
- Concentration sur le codage: optimisé pour les modifications multi-fichiers, les boucles d'exécution-correction et les tâches CI/IDE.
Détails techniques (architecture et spécifications)
Architecture - Mélange d'experts (MoE): Minimax M2 L'API utilise une stratégie MoE afin que le modèle puisse avoir un nombre total de paramètres très élevé tout en n'activant qu'une fraction par étape d'inférence. Cela permet d'obtenir des résultats améliorés. efficacité de calcul, débitet coût par jeton pour les agents interactifs et les boucles de codage.
Précision et quantification — Les fichiers de modèle et les piles de fournisseurs listent les formats FP32/BF16 et FP8 ainsi que plusieurs versions quantifiées (safetensors, FP8/E4M3, etc.), permettant un déploiement local et des compromis en matière d'efficacité.
Contexte et E/S — Les fournisseurs déployés publient 204,800 jeton Prise en charge du contexte et paramètres de sortie maximale élevés. M2 est texte seulement pour l'instant (de nombreuses versions ouvertes en provenance de Chine ont mis l'accent sur les capacités texte/agent tandis que le multimodal reste le domaine d'autres versions).
Recommandations de durée d'exécution / instructions spéciales — Minimax M2 L'API utilise une « pensée entrelacée » format de sortie qui encapsule le raisonnement interne du modèle dans <think>...</think> blocs. La requête de MiniMax conserve ce contenu de réflexion intact et le renvoie dans son contexte historique afin de préserver les performances des flux de travail d'agents à plusieurs tours.
Performances de référence
Points de référence en matière de renseignements composites et d'agents — Une analyse comparative indépendante réalisée par Artificial Analysis indique que **Le MiniMax-M2 atteint un indice d'intelligence de premier ordre parmi les modèles à poids libre.**et se classe parmi les meilleurs modèles open-source sur les indicateurs composites de renseignement, en particulier dans utilisation d'outils, respect des consignes et tâches d'agentivitéL'analyse artificielle met en évidence les caractéristiques du modèle. Efficacité (très peu de paramètres actifs) comme facteur clé de son classement.

Minimax M2 spectacles Résultats probants sur les suites de codage et d'agents (Tâches de type Terminal-Bench, SWE-Bench, BrowseComp, LiveCodeBench), où son architecture et son budget d'activation favorisent les boucles planification → action → vérification (cycles de compilation/exécution/test, modifications de fichiers multiples et chaînes d'outils).

Comparaison : MiniMax M2 face à d'autres modèles contemporains
Face à des adversaires de poids libre (DeepSeek, Qwen3, Kimi, etc.) — Minimax M2 se présente comme particulièrement efficace sur un budget de paramètres actifs (≈10B) lui conférant des ratios intelligence-paramètre actif élevés ; d'autres modèles ouverts peuvent avoir un nombre de paramètres actifs plus élevé mais un nombre total de paramètres similaire ou plus élevé.
Contre les modèles commerciaux de pointe (OpenAI / Anthropic / Google / xAI) — lieux de signalement M2 en dessous des modèles commerciaux les plus performants sur certaines métriques généralistes, mais compétitif ou en avance sur de nombreux benchmarks d'agents et de codage pour sa gamme de prix.
Compromis entre coût et rapidité — Son coût par jeton n'est que de 8 % de celui d'Anthropic Claude Sonnet et sa vitesse est environ deux fois plus rapide.
Limites et risques
Limitations — verbosité (utilisation élevée de jetons), modalité textuelle uniquement, faiblesses spécifiques à la tâcheet les risques habituels liés aux modèles linéaires (hallucinations, surconfiance, biais des données). Artificial Analysis et MiniMax soulignent tous deux que M2 peut être moins performant que certains grands modèles généralistes sur certaines tâches ouvertes, même s'il excelle dans les flux de travail d'agents et de programmation. Étant donné qu'il est basé sur MoE, considérations relatives au déploiement (Le routage expert, la quantification et les cadres d'inférence) sont importants.
Mises en garde opérationnelles — Minimax M2 's pensée entrelacée Le format exige la conservation de données spéciales <think>...</think> Les jetons conservés dans l'historique permettent d'optimiser les performances ; la suppression de ce contenu peut dégrader le comportement de l'agent. De plus, parce que Minimax M2 est verbeux, le coût par tâche est fonction des deux prix par jeton et Nombre total de jetons générés.
Principaux cas d’utilisation
- Orchestration des agents et flux de travail longs — chaînes d'outils à plusieurs étapes, cycles de navigation→récupération→exécution, récupération d'erreuret traçabilité des preuves dans les exécutions d'agents.
- Assistants de productivité et de codage pour développeurs — boucles de compilation-exécution-test, modifications multi-fichiers, réparations validées par des testset Intégration IDE (Des exemples de Claude Code, Cursor, Codex, Grok CLI existent).
- Flottes d'agents à haut débit / robots de production — où coût par inférence et concurrence En effet, la faible empreinte des paramètres activés du M2 peut réduire les coûts d'infrastructure.
Comment appeler Minimax M2 API de CometAPI
minimax-m2 Tarification de l'API dans CometAPI, 20 % de réduction sur le prix officiel :
- Jetons d'entrée : 0.24 million de jetons
- Jetons de sortie : 0.96 $/M jetons
Étapes requises
- Se connecter à cometapi.comSi vous n'êtes pas encore notre utilisateur, veuillez d'abord vous inscrire.
- Connectez-vous à votre Console CometAPI.
- Obtenez la clé API d'accès à l'interface. Cliquez sur « Ajouter un jeton » au niveau du jeton API dans l'espace personnel, récupérez la clé : sk-xxxxx et validez.

Utiliser la méthode
- Sélectionnez le point de terminaison « minimax-m2 » pour envoyer la requête API et définissez le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site web. Des tests Apifox sont également disponibles sur notre site web.
- Remplacer avec votre clé CometAPI réelle de votre compte.
- Insérez votre question ou demande dans le champ de contenu : c'est à cela que le modèle répondra.
- Traitez la réponse de l'API pour obtenir la réponse générée.
CometAPI fournit une API REST entièrement compatible, pour une migration fluide. Informations clés API doc:
- URL de base : https://api.cometapi.com/v1/chat/completions
- Noms de modèle: "
minimax-m2" - Authentification:
Bearer YOUR_CometAPI_API_KEYentête - Content-Type:
application/json.
Intégration et exemples d'API
Voici une Python Extrait montrant comment invoquer GLM-4.6 via l'API CometAPI. Remplacer <API_KEY> et <PROMPT> en conséquence:
import requests
API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer <API_KEY>",
"Content-Type": "application/json"
}
payload = {
"model": "minimax-m2",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "<PROMPT>"}
],
"max_tokens": 512,
"temperature": 0.7
}
response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())
Voir aussi
API Claude Haiku 4.5
