Technische Spezifikationen von MiniMax‑M2.5
| Feld | Behauptung / Wert |
|---|---|
| Modellname | MiniMax-M2.5 (Produktionsfreigabe, 12. Februar 2026). |
| Architektur | Mixture-of-Experts (MoE) Transformer (M2-Familie). |
| Gesamtparameter | ~230 Milliarden (gesamte MoE-Kapazität). |
| Aktive Parameter (pro Inferenz) | ~10 Milliarden pro Inferenz aktiviert (spärliche Aktivierung). |
| Eingabetypen | Text und Code (native Unterstützung für Codekontexte mit mehreren Dateien), Tool-Calling- / API-Tool-Schnittstellen (agentische Workflows). |
| Ausgabetypen | Text, strukturierte Ausgaben (JSON/Tool-Calls), Code (mehrere Dateien), Office-Artefakte (PPT/Excel/Word über Tool-Ketten). |
| Varianten / Modi | M2.5 (hohe Genauigkeit/Fähigkeit) und M2.5-Lightning (gleiche Qualität, geringere Latenz / höherer TPS). |
Was ist MiniMax‑M2.5?
MiniMax‑M2.5 ist das Flaggschiff-Update der M2.x-Familie mit Fokus auf Produktivität in der realen Welt und agentische Workflows. Die Veröffentlichung betont verbesserte Aufgabenzergliederung, Tool-/Suchintegration, Codegenerierungsgenauigkeit und Token-Effizienz für erweiterte, mehrstufige Probleme. Das Modell wird in einer Standard- und einer latenzärmeren „Lightning“-Variante angeboten, die für unterschiedliche Deployment-Abwägungen gedacht sind.
Hauptmerkmale von MiniMax‑M2.5
- Agentic-First-Design: Verbesserte Planung und Tool-Orchestrierung für mehrstufige Aufgaben (Suche, Tool-Calls, Codeausführungs-Harnesses).
- Token-Effizienz: Berichtete Reduzierung des Token-Verbrauchs pro Aufgabe im Vergleich zu M2.1, was niedrigere End-to-End-Kosten für lange Workflows ermöglicht.
- Schnellere End-to-End-Fertigstellung: Benchmarking des Anbieters berichtet durchschnittliche Aufgabenabschlusszeiten, die bei agentischen Coding-Evaluierungen um ~37 % schneller sind als bei M2.1.
- Starkes Codeverständnis: Auf mehrsprachigen Codekorpora abgestimmt für robuste sprachübergreifende Refactorings, Bearbeitungen über mehrere Dateien hinweg und Reasoning auf Repository-Ebene.
- Serving mit hohem Durchsatz: Ausgerichtet auf Produktions-Deployments mit hohen Token/Sekunde-Profilen; geeignet für kontinuierliche Agent-Workloads.
- Varianten für Latenz-/Leistungs-Abwägungen: M2.5‑lightning bietet geringere Latenz bei geringerem Rechenaufwand und kleinerem Footprint für interaktive Szenarien.
Benchmark-Leistung (berichtet)
Vom Anbieter berichtete Highlights — repräsentative Metriken (Release):
- SWE‑Bench Verified: 80,2 % (berichtete Pass-Rate auf den Benchmark-Harnesses des Anbieters)
- BrowseComp (Suche & Tool-Nutzung): 76,3 %
- Multi‑SWE‑Bench (mehrsprachiges Coding): 51,3 %
- Relative Geschwindigkeit / Effizienz: ~37 % schnellere End-to-End-Fertigstellung gegenüber M2.1 auf SWE‑Bench Verified in Anbietertests; in einigen Evaluierungen ~20 % weniger Such-/Tool-Runden.
Interpretation: Diese Zahlen positionieren M2.5 bei den genannten Benchmarks auf Augenhöhe mit oder nahe an branchenführenden agentischen/Code-Modellen. Die Benchmarks werden vom Anbieter berichtet und von mehreren Akteuren im Ökosystem reproduziert — sie sollten als unter dem Harness bzw. der Konfiguration des Anbieters gemessen betrachtet werden, sofern sie nicht unabhängig reproduziert wurden.
MiniMax‑M2.5 vs. Peers (knapper Vergleich)
| Dimension | MiniMax‑M2.5 | MiniMax M2.1 | Peer-Beispiel (Anthropic Opus 4.6) |
|---|---|---|---|
| SWE‑Bench Verified | 80,2 % | ~71–76 % (variiert je nach Harness) | Vergleichbar (für Opus wurden Ergebnisse nahe der Spitze berichtet) |
| Geschwindigkeit agentischer Aufgaben | 37 % schneller als M2.1 (Anbietertests) | Basislinie | Ähnliche Geschwindigkeit auf bestimmten Harnesses |
| Token-Effizienz | Verbessert gegenüber M2.1 (~weniger Tokens pro Aufgabe) | Höherer Token-Verbrauch | Wettbewerbsfähig |
| Beste Nutzung | Produktionsreife agentische Workflows, Coding-Pipelines | Frühere Generation derselben Familie | Stark bei multimodalem Reasoning und sicherheitsabgestimmten Aufgaben |
Hinweis des Anbieters: Vergleiche basieren auf Release-Materialien und Benchmark-Berichten der Anbieter. Kleine Unterschiede können empfindlich auf Harness, Toolchain und Evaluierungsprotokoll reagieren.
Repräsentative Enterprise-Anwendungsfälle
- Refactorings und Migrations-Pipelines auf Repository-Ebene — Wahrung der Absicht über Bearbeitungen in mehreren Dateien hinweg und automatisierte PR-Patches.
- Agentische Orchestrierung für DevOps — Orchestrierung von Testläufen, CI-Schritten, Paketinstallationen und Umgebungsdiagnosen mit Tool-Integrationen.
- Automatisierte Code-Reviews & Fehlerbehebung — Triage von Schwachstellen, Vorschlag minimaler Korrekturen und Vorbereitung reproduzierbarer Testfälle.
- Suchgetriebene Informationsgewinnung — Nutzung von BrowseComp-ähnlicher Suchkompetenz zur mehrstufigen Exploration und Zusammenfassung technischer Wissensdatenbanken.
- Produktionsagenten & Assistenten — Kontinuierliche Agenten, die kosteneffiziente, stabile Langzeit-Inferenz erfordern.
So greifen Sie auf MiniMax‑M2.5 zu und integrieren es
Schritt 1: Für einen API-Schlüssel registrieren
Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Nutzer sind, registrieren Sie sich bitte zuerst. Melden Sie sich in Ihrer CometAPI-Konsole an. Holen Sie sich den API-Schlüssel als Zugriffsdaten für die Schnittstelle. Klicken Sie im persönlichen Bereich beim API-Token auf „Add Token“, erhalten Sie den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.
Schritt 2: Anfragen an die API minimax-m2.5 senden
Wählen Sie den Endpunkt „minimax-m2.5“, um die API-Anfrage zu senden, und legen Sie den Request-Body fest. Die Anfragemethode und der Request-Body sind in unserer API-Dokumentation auf der Website beschrieben. Unsere Website bietet zu Ihrer Bequemlichkeit auch Apifox-Tests an. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI-Schlüssel aus Ihrem Konto. Wo Sie es aufrufen: Chat Format.
Fügen Sie Ihre Frage oder Anfrage in das Feld content ein — darauf wird das Modell antworten. Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.
Schritt 3: Ergebnisse abrufen und verifizieren
Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten. Nach der Verarbeitung antwortet die API mit dem Aufgabenstatus und den Ausgabedaten.