Spécifications techniques de MiniMax‑M2.5
| Champ | Déclaration / valeur |
|---|---|
| Nom du modèle | MiniMax‑M2.5 (version de production, 12 févr. 2026). |
| Architecture | Transformer Mixture‑of‑Experts (MoE) (famille M2). |
| Nombre total de paramètres | ~230 milliards (capacité totale MoE). |
| Paramètres actifs (par inférence) | ~10 milliards activés par inférence (activation clairsemée). |
| Types d’entrée | Texte et code (prise en charge native des contextes de code multi‑fichiers), appels d’outils / interfaces d’outils API (flux de travail orientés agents). |
| Types de sortie | Texte, sorties structurées (JSON/appels d’outils), code (multi‑fichiers), artefacts Office (PPT/Excel/Word via des chaînes d’outils). |
| Variantes / modes | M2.5 (haute précision/capacité) et M2.5‑Lightning (même qualité, latence plus faible / TPS plus élevé). |
Qu’est-ce que MiniMax‑M2.5 ?
MiniMax‑M2.5 est la mise à jour phare de la famille M2.x axée sur la productivité concrète et les flux de travail orientés agents. Cette version met l’accent sur une meilleure décomposition des tâches, l’intégration recherche/outils, la fidélité de génération de code et l’efficacité en jetons pour des problèmes étendus et multi‑étapes. Le modèle est proposé en variante standard et en variante « lightning » à latence réduite, destinées à différents compromis de déploiement.
Principales fonctionnalités de MiniMax‑M2.5
- Conception axée sur les agents : planification et orchestration d’outils améliorées pour des tâches multi‑étapes (recherche, appels d’outils, cadres d’exécution de code).
- Efficacité des jetons : réductions rapportées de la consommation de jetons par tâche par rapport à M2.1, permettant des coûts de bout en bout plus faibles pour des workflows longs.
- Achèvement de bout en bout plus rapide : des benchmarks du fournisseur indiquent des temps moyens d’achèvement de tâches ~37% plus rapides que M2.1 sur des évaluations de codage agentiques.
- Solide compréhension du code : calibré sur des corpus de code multilingues pour des refactorisations robustes inter‑langages, des modifications multi‑fichiers et un raisonnement à l’échelle du dépôt.
- Service à haut débit : ciblé pour des déploiements en production avec des profils élevés en jetons/seconde ; adapté aux charges de travail continues d’agents.
- Variantes pour les compromis latence vs puissance : M2.5‑lightning offre une latence inférieure avec une empreinte et un calcul réduits pour des scénarios interactifs.
Performances de benchmark (rapportées)
Points saillants signalés par le fournisseur — métriques représentatives (version) :
- SWE‑Bench Verified : 80.2% (taux de réussite rapporté sur les cadres de benchmark du fournisseur)
- BrowseComp (recherche et utilisation d’outils) : 76.3%
- Multi‑SWE‑Bench (programmation multilingue) : 51.3%
- Vitesse / efficacité relative : ~37% plus rapide pour l’achèvement de bout en bout vs M2.1 sur SWE‑Bench Verified dans les tests du fournisseur ; ~20% de cycles recherche/outils en moins dans certaines évaluations.
Interprétation : ces chiffres placent M2.5 à parité avec, ou proche des, modèles agentiques/de code leaders du secteur sur les benchmarks cités. Les benchmarks sont rapportés par le fournisseur et reproduits par plusieurs acteurs de l’écosystème — considérez qu’ils sont mesurés sous le cadre/la configuration du fournisseur, sauf reproduction indépendante.
MiniMax‑M2.5 vs pairs (comparaison concise)
| Dimension | MiniMax‑M2.5 | MiniMax M2.1 | Exemple de pair (Anthropic Opus 4.6) |
|---|---|---|---|
| SWE‑Bench Verified | 80.2% | ~71–76% (varie selon le cadre) | Comparable (Opus a rapporté des résultats proches du sommet) |
| Vitesse des tâches agentiques | 37% plus rapide vs M2.1 (tests du fournisseur) | Référence | Vitesse similaire sur certains cadres |
| Efficacité des jetons | Améliorée vs M2.1 (~moins de jetons par tâche) | Utilisation de jetons plus élevée | Compétitive |
| Meilleure utilisation | Workflows agentiques de production, pipelines de code | Génération précédente de la même famille | Fort en raisonnement multimodal et tâches à sécurité renforcée |
Note du fournisseur : les comparaisons proviennent des documents de sortie et des rapports de benchmark du fournisseur. De petites différences peuvent être sensibles au cadre, à la chaîne d’outils et au protocole d’évaluation.
Cas d’usage représentatifs pour l’entreprise
- Refactorisations à l’échelle du dépôt et pipelines de migration — préserver l’intention à travers des modifications multi‑fichiers et des correctifs de PR automatisés.
- Orchestration agentique pour DevOps — orchestrer des exécutions de tests, des étapes CI, des installations de paquets et des diagnostics d’environnement avec des intégrations d’outils.
- Revue de code et remédiation automatisées — trier les vulnérabilités, proposer des corrections minimales et préparer des cas de test reproductibles.
- Récupération d’informations pilotée par la recherche — exploiter la compétence de recherche de niveau BrowseComp pour effectuer des explorations multi‑tours et des synthèses de bases de connaissances techniques.
- Agents et assistants de production — agents continus nécessitant une inférence longue durée, stable et économique.
Comment accéder et intégrer MiniMax‑M2.5
Étape 1 : S’inscrire pour obtenir une clé API
Connectez‑vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez‑vous à votre CometAPI console. Obtenez la clé d’API d’accès à l’interface. Cliquez sur « Add Token » au niveau du jeton API dans le centre personnel, obtenez la clé de jeton : sk-xxxxx et soumettez.
Étape 2 : Envoyer des requêtes à l’API minimax-m2.5
Sélectionnez le point de terminaison « minimax-m2.5 » pour envoyer la requête API et définissez le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site. Notre site propose également des tests Apifox pour votre commodité. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle depuis votre compte. Où l’appeler : format Chat.
Insérez votre question ou demande dans le champ content — c’est ce à quoi le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.
Étape 3 : Récupérer et vérifier les résultats
Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API renvoie l’état de la tâche et les données de sortie.