Ein umfassend aufgerüstetes, vielseitiges Modell namens MiniMax M2.5, von MiniMax angekündigt und als speziell für agentische Workflows, Codegenerierung und „Real-World-Produktivität“ gebaut positioniert. Das Unternehmen beschreibt M2.5 als das Ergebnis umfangreichen Reinforcement-Learning-Trainings in Hunderttausenden komplexen Umgebungen, mit großen Fortschritten in Coding-Benchmarks, Tool-Nutzung und Langkontext-Schlussfolgern sowie verbesserter Inferenz-Effizienz und Kostenvorteilen.
Sie können MiniMax M2.5 bereits auf CometAPI sehen. Sein Preis beträgt 20 % des offiziellen Preises in CometAPI.
What is MiniMax M2.5 and why does it matter?
MiniMax M2.5 ist die neueste große Veröffentlichung von MiniMax, eine Modellfamilie, die auf hohen Durchsatz, agentische Workflows und — vor allem — Codierungsproduktivität ausgerichtet ist. Mitte Februar 2026 angekündigt, erweitert M2.5 die bisherige M-Serie des Unternehmens mit einem größeren Kontextfenster, engeren Tool-Integrations-Primitiven und einem Trainingsfokus auf „KI-native Arbeitsumgebungen“, in denen das Modell aktiv Browsersuchen, API-Aufrufe und Codeausführungsschritte orchestriert, statt nur Text zurückzugeben. Die Launch-Kommunikation stellt M2.5 nicht nur als reines Upgrade für Konversationen dar, sondern als Schritt auf Plattformebene: Es soll Entwicklerproduktivität beschleunigen, repetitive Engineering-Aufgaben automatisieren und als Motor für agentengesteuerte Produkte dienen.
Warum das heute wichtig ist, ist zweierlei. Erstens erreicht das Modell eine Reihe praktischer Benchmarks und Durchsatzziele, die es für produktive Systeme attraktiv machen (nicht nur für Forschungs-Demos). Zweitens signalisiert die Veröffentlichung, wie Anbieter integrierte Tool-Nutzung und Token-Effizienz priorisieren: M2.5 ist explizit darauf abgestimmt, die Anzahl der Tool-Aufruf-Runden und den Token-Overhead bei mehrstufigen Aufgaben zu reduzieren, was in realen Deployments direkt zu niedrigeren Kosten und geringerer Latenz führt.
How Does MiniMax M2.5 Perform in Coding Benchmarks?
Overview of Coding Performance
MiniMax M2.5 hat schnell Aufmerksamkeit für seine Leistung auf Standard-Coding-Benchmarks gewonnen, die in der KI-Branche zur Bewertung praktischer Codegenerierung und Schlussfolgerung verwendet werden:
| Benchmark Suite | M2.5 Result | Explanation |
|---|---|---|
| SWE-Bench Verified | 80.2% | Misst die Fähigkeit, echte GitHub-Issues zu beheben; nahe Top-Leistung. |
| Multi-SWE-Bench | 51.3% | Bewertet die Zuverlässigkeit bei Multi-File- und Cross-Repo-Coding. |
| SWE-Bench Pro | 55.4% | Anspruchsvollerer Real-World-Coding-Test. |
Benchmarking-Daten deuten darauf hin, dass M2.5s Codierfähigkeiten hoch eingestuften proprietären Modellen wie Anthropics Claude Opus 4.6 und OpenAIs GPT-5.2 entsprechen und M2.5 damit zu den Top-Anwärtern für produktive Software-Engineering-Aufgaben zählen. Ein Wert über 80 % in diesem Benchmark signalisiert, dass M2.5 praktische Software-Engineering-Unterstützung leisten kann, nicht nur theoretische Codegenerierung. Das macht es besonders wertvoll für Unternehmens-Workflows, bei denen Korrektheit, Zuverlässigkeit und Wartbarkeit höchste Priorität haben.
Diese Zahlen zeigen, dass M2.5 auf branchenführendem Niveau operiert — ohne die extremen Preisbelastungen, die für viele geschlossene proprietäre Systeme typisch sind — und stellen damit die jüngsten Branchenwahrnehmungen in Frage, wonach hohe Leistung zwangsläufig mit hohen Kosten einhergeht.
Wie verhält sich M2.5 in realen Engineering-Workflows?
Über die reinen Scores hinaus ist bemerkenswert, wie M2.5 für agentische Pipelines konzipiert ist. Das Modell enthält Primitive für verschachteltes Denken (interne Überlegung zwischen Tool-Aufrufen), stärkeres mehrturniges Code-Schlussfolgern und eine Kontextverwaltungsstrategie für große Codebasen. In frühen Tests berichteten Reviewer, dass M2.5 einen großen Anteil an Commit-fertigem Code für bestimmte Aufgabenklassen erzeugte und weniger menschliche Korrekturen erforderte als frühere MiniMax-Versionen. Diese Kombination — bessere Korrektheit im ersten Durchlauf und weniger Hin-und-her-Runden — macht M2.5 attraktiv für Code-Assistenz- und CI-Automatisierungsrollen.
Search and Tool calling of MiniMax M2.5
Auch wenn Codingleistung oft ein zentrisches Maß für entwicklerorientierte LLMs ist, ist M2.5 auf breitere Produktivität ausgelegt:
| Task Type | Benchmark | M2.5 Score |
|---|---|---|
| Web Search & Context | BrowseComp | 76.3% |
| Tool-Use Reasoning | BFCL Multi-Turn | 76.8% |
| Workflow Orchestration | MEWC (Multi-Expert) | 74.4% |
| Office Productivity | VIBE-Pro Suite | 54.2% |
Diese Metriken zeigen, dass M2.5s Fähigkeiten sich auf dichtes, mehrschrittiges Schlussfolgern, effektive Suche innerhalb des gespeicherten Kontexts und langfristige Tool-Interaktionen erstrecken — Schlüsselkompetenzen für robuste multimodale KI-Assistenten und Agenten.
Kann es Tools effektiv finden und nutzen?
Eine der Schlagzeilen-Verbesserungen in M2.5 ist die Tool-Integration. Die interne Fähigkeit zum „verschachtelten Denken“ ermöglicht es dem Modell, vor und nach jedem Tool-Aufruf zu reflektieren, zu entscheiden, ob ein weiterer Suchvorgang oder ein anderes Tool nötig ist, und unterschiedliche Tool-Ausgaben zu einem kohärenten nächsten Schritt zu synthetisieren. Praktisch reduziert das die Anzahl der erforderlichen Tool-Aufruf-Runden zum Lösen einer mehrstufigen Aufgabe (suchen → abrufen → analysieren → handeln). Plattformdokumentation und Hands-on-Reviews berichten von etwa 20 % weniger Tool-Aufruf-Runden und einem deutlichen Anstieg der „Entscheidungsreife“, was bedeutet, dass das Modell weniger redundante oder verfrühte Tool-Aufrufe macht.
Benchmarks, die sich auf Browsing- und Tool-Workflows fokussieren (BrowseComp, BFCL), platzieren M2.5 nahe an der Spitze für agentische Aufgaben. Für BrowseComp wurden Werte im mittleren 70er-Bereich berichtet, und BFCL-ähnliche Tool-Calling-Tests zeigen hohe Präzision bei mehrstufiger Tool-Orchestrierung. Diese Resultate sind relevant für jedes Produkt, das erwartet, dass ein Modell Live-Webdaten synthetisiert, domänenspezifische APIs aufruft oder aktiv Dateien und Code im Auftrag des Nutzers manipuliert.
Was bedeutet das für Integrationen?
Für Ingenieure, die Assistenten, Bots oder Automatisierungspipelines bauen, ist die Quintessenz, dass M2.5 nicht nur „besser bei Suchen“ ist — es ist besser bei Entscheidungen über Suchen. Das bedeutet weniger Roundtrips, weniger Tokenverschwendung und in vielen Fällen einfacheren Orchestrierungscode.
Welche Effizienz- und Geschwindigkeitsmerkmale hat MiniMax M2.5?
Eines der herausragenden Attribute von M2.5 ist seine Geschwindigkeit und Inferenz-Effizienz — ein kritischer Faktor für die reale Nutzung, bei der der Durchsatz sowohl Kosten als auch Latenz beeinflusst.
Effizienzkennzahlen
| Metric | Value |
|---|---|
| Speed Improvement vs M2.1 | +37% |
| Standard Output Speed | 50 tokens/second |
| Lightning Output Speed | 100 tokens/second |
| Typical Tokens/Task | ~3.52M tokens for complex tasks |
Die Lightning-Variante entspricht dem Durchsatz von Modellen wie Claude Opus 4.6 — aber entscheidend zu einem Bruchteil der Kosten. Das ermöglicht M2.5 die Unterstützung kontinuierlicher agentischer Workflows, ohne über lange Sitzungen oder voluminösen Betrieb prohibitive Token-Ausgaben zu verursachen.
Auswirkungen für die Technik
- Höherer Durchsatz korreliert direkt mit schnellerer Echtzeit-Interaktion in Entwicklungsloops und automatisierten Workflows.
- Bessere Token-Effizienz reduziert die Gesamtkosten bei langformatigen, mehrstufigen Aufgaben wie Dokumentationsgenerierung, Debugging und Systemübergreifender Integration.
- In Kombination mit M2.5s hohen Reasoning-Benchmarks bedeutet diese Effizienz bessere Ergebnisse zu geringeren Gesamtlaufzeitkosten im Vergleich zu konkurrierenden Spitzenmodellen.
Was kostet MiniMax M2.5? — Preisübersicht
Einer der disruptivsten Aspekte von M2.5 ist seine Preisgestaltung — positioniert als kosteneffiziente Alternative zu proprietären LLMs. Welche Preisoptionen bietet MiniMax?
MiniMax bietet mehrere Verbrauchs- und Abonnementoptionen für Entwickler und Unternehmen. Die öffentlichen Materialien des Unternehmens skizzieren zwei Abrechnungsmodelle für Textmodelle in der Produktion: ein Coding Plan-Abonnement (ausgerichtet auf Entwickler, die ein konstantes Volumen an codebezogenen Prompts ausführen) und Pay-As-You-Go für flexible, gemessene Nutzung. Der Coding Plan ist ausdrücklich darauf ausgelegt, eine günstige monatliche Option für Entwicklerteams zu bieten, während der Pay-As-You-Go-Weg nach Token oder nach dem gewählten Durchsatzprofil abrechnet.
Wie funktioniert der Coding Plan?
Der Coding Plan wird als monatliches Abonnement angeboten, das eine feste Anzahl an „Prompts“ oder Sessions über einen Zeitraum bündelt (die Dokumentation zeigt Beispiele wie Starter/Plus/Max mit unterschiedlichen Prompt-Kontingenten alle 5 Stunden). Die angegebene Begründung ist, eine planbare, entwicklerfreundliche Kostenstruktur für Teams zu bieten, die auf viele kurze, häufige Code-Assistenz-Sitzungen angewiesen sind, statt auf einzelne Anfragen mit hohem Volumen.
| Starter | Plus | Max | |
|---|---|---|---|
| Price | $10 /month | $20 /month | $50 /month |
| Prompts | 100 prompts / 5 hours | 300 prompts / 5 hours | 1000 prompts / 5 hours |
| Starter | Plus | Max | |
|---|---|---|---|
| Price | $100 /year 120 | $200 /year 240 | $500 /year 600 |
| Prompts | 100 prompts / 5 hours | 300 prompts / 5 hours | 1000 prompts / 5 hours |
Token Pricing Structure
| Variant | Input Price | Output Price | TPS (Tokens/sec) | Notes |
|---|---|---|---|---|
| M2.5-Standard | $0.15/M | $1.20/M | 50 | Kostenoptimierte Variante. |
| M2.5-Lightning | $0.30/M | $2.40/M | 100 | Geschwindigkeitsoptimierte Variante. |
Diese Tokenpreise demokratisieren die Ökonomie von KI-Agenten, indem sie ermöglichen, Modelle kontinuierlich im Unternehmensmaßstab zu betreiben, ohne die Kostenbarrieren vieler proprietärer Systeme, die Ausgabetoken 10×–30× höher bepreisen.
Stündliche Betriebskosten
Unter Verwendung der Lightning-Variante (100 TPS) ergeben sich bei stabiler kontinuierlicher Ausgabe ungefähr:
- 360,000 tokens generated per hour
- Ausgabekosten = 360,000/1M × $2.40 ≈ $0.86
- Die Eingabekosten fügen einen kleinen Anteil hinzu, für ~$1/hour Gesamtkosten bei kontinuierlicher Ausgabe
Das ist um Größenordnungen günstiger als typische Spitzenmodelle, wodurch stets aktive agentische Operationen wirtschaftlich für Unternehmen werden.
Auf der Suche nach einer günstigeren Nutzung von M2.5
Genießen Sie einen Rabatt auf Minimax-M2.5 bei Verwendung von CometAPI:
| Comet Price (USD / M Tokens) | Official Price (USD / M Tokens) | Discount |
|---|---|---|
| Input:$0.24/M; Output:$0.96/M | Input:$0.3/M; Output:$1.2/M | -20% |
How do you get started with MiniMax M2.5
Where can developers access the model?
MiniMax veröffentlicht Dokumentation und Plattformleitfäden für die Integration von M2.5 über seine API (Plattform-Docs enthalten Leitfäden für Text-, Coding- und Tool-gesteuerte Flows). Das Modell ist auch in einigen Drittanbieter-Modellbibliotheken und Registern verfügbar (beispielsweise haben mehrere Plattformbibliotheken M2.5-Varianten für Cloud-Nutzung und lokale Experimente bereitgestellt). Das bedeutet, dass Entwickler M2.5 entweder über die offiziellen API-Endpunkte von MiniMax aufrufen oder unterstützte Drittanbieter-Tools nutzen können, wo verfügbar.
Common integration patterns
- IDE / Editor assistant — M2.5 in ein IDE-Plugin einbinden, um Completions, Erklärungen und Testfall-Generierung bereitzustellen. Verwenden Sie ein „Coding Plan“-Abonnement, wenn Sie viele kurze Entwickler-Sessions erwarten.
- Agent orchestration — M2.5 als Entscheidungsgehirn in ein Multi-Tool-Orchestrierungssystem einbetten; auf sein starkes Tool-Calling-Verhalten setzen, um externe Aktionen (APIs, Datenbankabfragen, Testrunner) zu steuern. Sorgen Sie für explizite Schema-Verträge für API-Payloads, um Halluzinationen zu minimieren.
- Search + retrieval augmentation — eine kleine Retrieval-Schicht (Vektorstore + Reranker) kombinieren, um den Kontext-Token-Einsatz zu begrenzen, während die Relevanz für Langdokument-Anfragen erhalten bleibt. M2.5s starke Search-Benchleistung macht es zu einer natürlichen Wahl für Retrieval-augmented Generation.
- Batch code transformation — das Modell für Massen-Refactorings oder automatisierte Testgenerierung mit gebatchten Jobs einsetzen, bei denen Kosten pro Stunde und Durchsatz-Einstellungen für die Modellökonomie besonders wichtig sind.
Practical tips for better results
- Few-shot-Beispiele verwenden, die dem Entwicklerflow entsprechen (Input, gewünschte Ausgabestruktur, Fehlerfälle), um die Korrektheit bei Coding- oder Toolaufruf-Prompts zu verbessern.
- Tool-Schnittstellen mit Schema-Validierung absichern, sodass das System nur validierte Payloads akzeptiert, wenn M2.5 einen API-Aufruf tätigt.
- Token-Nutzung überwachen und Schutzmaßnahmen setzen (harte Token-Limits pro Call), um ausufernde Kosten zu vermeiden.
- Erfolgsraten messen (z. B. Test-Pass-Rate für generierten Code) statt sich ausschließlich auf subjektive Qualitätsmetriken zu verlassen.
Conclusion
MiniMax M2.5 stellt einen pragmatischen Schritt nach vorn in der Nische „Agent + Coding“ großer Modelle dar: Es kombiniert starke Coding-Benchmarks, explizite Unterstützung für verschachtelte Tool-Nutzung und betriebliche Verbesserungen, die darauf abzielen, Token- und Zeitkosten in realen Workflows zu senken. Für Teams mit Fokus auf Entwicklerproduktivitätsautomatisierung, Codegenerierung und Multi-Tool-Orchestrierung lohnt sich ein Pilot — insbesondere dort, wo Kosteneffizienz Priorität hat. Für Teams, die in jeder Nischen-Benchmark das absolut Neueste benötigen, unabhängig von den Kosten, können Premium-Angebote weiterhin inkrementelle Vorteile zeigen; doch die Kosten/Leistungs-Abwägungen machen M2.5 für die Produktionsbereitstellung in vielen realen Szenarien überzeugend.
Entwickler können MInimax-M2.5 über CometAPI jetzt nutzen. Zum Einstieg erkunden Sie die Fähigkeiten des Modells im Playground und konsultieren den API guide für detaillierte Anweisungen. Stellen Sie vor dem Zugriff sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben. CometAPI bietet einen Preis, der deutlich unter dem offiziellen liegt, um Ihnen die Integration zu erleichtern.
Ready to Go?→ Sign up fo glm-5 today !
If you want to know more tips, guides and news on AI follow us on VK, X and Discord!
