Spécifications techniques de MiniMax‑M2.5
| Field | Spécification / valeur |
|---|---|
| Model name | MiniMax-M2.5 (version de production, 12 févr. 2026). |
| Architecture | Transformer à mélange d’experts (MoE) (famille M2). |
| Total parameters | ~230 billion (capacité MoE totale). |
| Active (per-inference) parameters | ~10 billion activés par inférence (activation clairsemée). |
| Input types | Texte et code (prise en charge native des contextes de code multi‑fichiers), appels d’outils / interfaces d’outils API (workflows agentiques). |
| Output types | Texte, sorties structurées (JSON/appels d’outils), code (multi‑fichiers), artefacts Office (PPT/Excel/Word via chaînes d’outils). |
| Variants / modes | M2.5 (précision/capacité élevées) et M2.5-Lightning (même qualité, latence inférieure / TPS plus élevé). |
Qu’est‑ce que MiniMax‑M2.5 ?
MiniMax‑M2.5 est la mise à jour phare de la famille M2.x, axée sur la productivité du monde réel et les workflows agentiques. Cette version met l’accent sur une meilleure décomposition des tâches, l’intégration recherche/outils, la fidélité de génération de code et l’efficacité en tokens pour des problèmes étendus et multi‑étapes. Le modèle est proposé en variante standard et en variante « lightning » à latence réduite, destinées à différents compromis de déploiement.
Principales fonctionnalités de MiniMax‑M2.5
- Conception axée sur les agents : planification et orchestration des outils améliorées pour les tâches multi‑étapes (recherche, appels d’outils, harnais d’exécution de code).
- Efficacité en tokens : réductions rapportées de la consommation de tokens par tâche par rapport à M2.1, permettant des coûts de bout en bout plus faibles pour les workflows longs.
- Achèvement de bout en bout plus rapide : les benchmarks du fournisseur indiquent des temps moyens d’achèvement des tâches ~37% plus rapides que M2.1 sur des évaluations de codage agentique.
- Solide compréhension du code : ajusté sur des corpus de code multilingues pour des refactorings inter‑langages robustes, des modifications multi‑fichiers et un raisonnement à l’échelle d’un dépôt.
- Service à haut débit : ciblé pour des déploiements en production avec des profils élevés de tokens/sec ; adapté aux charges continues d’agents.
- Variantes pour les compromis latence vs puissance : M2.5‑lightning offre une latence plus faible avec un calcul et une empreinte réduits pour des scénarios interactifs.
Performances de benchmark (rapportées)
Faits saillants rapportés par le fournisseur — métriques représentatives (version) :
- SWE‑Bench Verified : 80.2% (taux de réussite rapporté sur les cadres de benchmark du fournisseur)
- BrowseComp (recherche & utilisation d’outils) : 76.3%
- Multi‑SWE‑Bench (codage multilingue) : 51.3%
- Vitesse / efficacité relatives : ~37% plus rapide en achèvement de bout en bout vs M2.1 sur SWE‑Bench Verified dans les tests du fournisseur ; ~20% de cycles recherche/outils en moins dans certaines évaluations.
Interprétation : Ces chiffres placent M2.5 à parité avec, ou proche des modèles agentiques/de code leaders du secteur sur les benchmarks cités. Les benchmarks sont rapportés par le fournisseur et reproduits par plusieurs sources de l’écosystème — à considérer comme mesurés sous le cadre/configuration du fournisseur sauf reproduction indépendante.
MiniMax‑M2.5 vs pairs (comparaison concise)
| Dimension | MiniMax‑M2.5 | MiniMax M2.1 | Exemple d’un pair (Anthropic Opus 4.6) |
|---|---|---|---|
| SWE‑Bench Verified | 80.2% | ~71–76% (varie selon le cadre) | Comparable (Opus a rapporté des résultats proches du sommet) |
| Vitesse des tâches agentiques | 37% plus rapide vs M2.1 (tests du fournisseur) | Référence | Vitesse similaire sur des cadres spécifiques |
| Efficacité en tokens | Améliorée vs M2.1 (~moins de tokens par tâche) | Utilisation de tokens plus élevée | Compétitive |
| Meilleur usage | Workflows agentiques de production, pipelines de code | Génération antérieure de la même famille | Solide en raisonnement multimodal et tâches orientées sécurité |
Note du fournisseur : les comparaisons proviennent des documents de version et des rapports de benchmarks des vendeurs. De petites différences peuvent être sensibles au cadre, à la chaîne d’outils et au protocole d’évaluation.
Cas d’usage représentatifs en entreprise
- Refactorings à l’échelle du dépôt et pipelines de migration — préserver l’intention à travers des modifications multi‑fichiers et des correctifs PR automatisés.
- Orchestration agentique pour DevOps — orchestrer des exécutions de tests, des étapes CI, des installations de paquets et des diagnostics d’environnement avec des intégrations d’outils.
- Revue de code et remédiation automatisées — trier les vulnérabilités, proposer des correctifs minimaux et préparer des cas de test reproductibles.
- Récupération d’information pilotée par la recherche — tirer parti de la compétence de recherche de niveau BrowseComp pour mener des explorations multi‑tours et des synthèses de bases de connaissances techniques.
- Agents et assistants de production — agents continus nécessitant une inférence de longue durée, stable et économique.
Comment accéder à et intégrer MiniMax‑M2.5
Étape 1 : Inscrivez‑vous pour obtenir une clé API
Connectez‑vous à cometapi.com. Si vous n’êtes pas encore utilisateur, inscrivez‑vous d’abord. Connectez‑vous à votre console CometAPI. Obtenez la clé API d’accès de l’interface. Cliquez sur « Add Token » au niveau du jeton API dans le centre personnel, obtenez la clé de jeton : sk-xxxxx et validez.
Étape 2 : Envoyez des requêtes à l’API minimax-m2.5
Sélectionnez l’endpoint « minimax-m2.5 » pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont fournis dans la documentation API de notre site. Notre site propose également un test Apifox pour votre convenance. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle de votre compte. Où l’appeler : format Chat.
Insérez votre question ou votre demande dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.
Étape 3 : Récupérez et vérifiez les résultats
Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API répond avec le statut de la tâche et les données de sortie.