MiniMax-M2.7 ist die Weiterentwicklung in MiniMax’ M2-Serie großer Sprachmodelle (LLMs), entwickelt für hocheffizientes Reasoning, Coding und agentische Workflows. Aufbauend auf dem Erfolg von M2 und M2.5 bringt es Verbesserungen bei Batch-Generierung, Kosteneffizienz und skalierbarem API-Deployment (z. B. über CometAPI). Es zielt auf Enterprise-AI-Anwendungsfälle wie Automatisierung, mehrstufiges Reasoning und großskalige Content-Generierung.
Was ist MiniMax-M2.7?
Ein Flaggschiffmodell für Coding und Agenten
MiniMax-M2.7 wird von MiniMax als aktuelles Flaggschiff-Textmodell für anspruchsvolle Coding-, Agenten- und Produktivitäts-Workflows präsentiert.
MiniMax-M2.7 ist die neueste Generation des großen Sprachmodells (LLM), die von MiniMax im März 2026 als Teil seiner M2-Familie veröffentlicht wurde. Es ist als leistungsstarkes, kosteneffizientes, agentenorientiertes KI-Modell konzipiert, das die Fähigkeiten seines Vorgängers M2.5 erweitert und gleichzeitig Verbesserungen bei Reasoning, Selbstverbesserungsschleifen und der Ausführung realer Aufgaben einführt.
M2.5 zeigte bereits eine Leistung nahe dem State of the Art (SOTA) (erreichte 80,2 % auf SWE-Bench Verified) und war dabei drastisch günstiger als Wettbewerber; es erzielte vergleichbare Ergebnisse wie Modelle von GPT, Gemini und Claude bei weniger als einem Zehntel der Kosten.
M2.7 baut auf diesem Fundament auf und legt den Schwerpunkt auf:
- Autonome Agentenschleifen
- Reduzierte Iterationskosten
- Verbesserte Konsistenz beim Reasoning
- Höhere Produktionsreife
Sich selbst weiterentwickelnd?
M2.7 wurde mit einem Entwicklungsprozess erstellt, der es ihm erlaubte, seinen eigenen Speicher zu aktualisieren, Fähigkeiten in seinem Harness zu erstellen und seinen Lernprozess auf Basis von Experimentergebnissen zu verbessern. Vereinfacht gesagt signalisiert das Unternehmen, dass M2.7 mit Blick auf eine starke agentische Schleife trainiert und optimiert wurde, nicht nur nach einem statischen Chat-Benchmark-Rezept.
5 Funktionen von MiniMax-M2.7
Stärkeres Software-Engineering-Verhalten
MiniMax-M2.7 ist besonders stark bei durchgängiger Projektabwicklung, Log-Analyse, Bug-Fehlersuche, Codesicherheit und Machine-Learning-Aufgaben. Das macht das Modell nicht nur für Codegenerierung relevant, sondern auch für die lästigeren, zeitaufwendigeren Teile der Engineering-Arbeit: Fehler nachverfolgen, große Repositories navigieren und mehrere Schritte zu einem praktikablen Ergebnis zusammenführen. M2.7 hält eine Skill-Adhärenzrate von 97 %, während es mit mehr als 40 komplexen Skills arbeitet, von denen jeder 2.000 Tokens übersteigt — ein Detail, das auf den beabsichtigten Einsatz in Langzeit-Workflows hinweist.
Ein großes Kontextfenster für lange Aufgaben
Das MiniMax-M2.7-Modell verfügt über ein Kontextfenster von 204.800 Tokens, was ein großes praktisches Merkmal für Nutzer ist, die mit langen Prompts, Multi-File-Codebasen oder erweiterten Agentensitzungen arbeiten. Das Standardmodell M2.7 verarbeitet ungefähr 60 Tokens pro Sekunde und eine „Highspeed“-Variante ungefähr 100 Tokens pro Sekunde. Diese Kombination ist wichtig, weil ein großes Kontextfenster allein nicht ausreicht; Nutzer benötigen auch nutzbaren Durchsatz, wenn das Modell in einem realen Workflow reaktionsfähig bleiben soll.
Office-Bearbeitung und Dokumentenarbeit gehören ebenfalls dazu
MiniMax betont außerdem, dass es bei M2.7 nicht nur um Coding geht. Das Unternehmen sagt, das Modell habe eine verbesserte komplexe Bearbeitung über Excel, PowerPoint und Word hinweg, mit besseren mehrstufigen Überarbeitungen und hochgradig originalgetreuer Bearbeitung. Außerdem meldet es einen GDPval-AA-ELO von 1495 und sagt, dies sei der höchste Wert unter Open-Source-Modellen. Das ist eine starke Behauptung und sollte eher als MiniMax’ eigene Einschätzung der Office-Produktivitätskompetenz des Modells gelesen werden als als branchenweiter Konsens, ist aber dennoch wichtig, weil es die Veröffentlichung über Software Engineering hinaus erweitert.
Tool-Nutzung und Umgebungsinteraktion sind zentrale Designthemen
MiniMax betont, dass M2.7 mit komplexen Umgebungen interagieren und mit einer großen Anzahl von Skills arbeiten kann, was mit der breiteren Agentenstrategie des Unternehmens übereinstimmt. M2.7 wird als Modell mit starkem Codeverständnis, Multi-Turn-Dialog und Reasoning-Fähigkeiten dargestellt und als geeignet für werkzeugreiche Umgebungen statt für einfachen Single-Turn-Chat präsentiert. Praktisch bedeutet das, dass das Modell als Steuerinstanz oder Kollaborateur verkauft wird, nicht nur als Textgenerator.
Selbstverbesserungsmechanismen
Eine zentrale Innovation in M2.7 sind Selbstverbesserungsschleifen des Modells:
- Iterative Verfeinerung des Reasonings
- Feedbackbasierte Korrekturen
- Reduzierte Halluzinationsraten
Dies ermöglicht verlässlichere Ausgaben in:
- Coding
- Forschung
- Enterprise-Workflows
Zugriff und Preis von Minimax-M2.7
MiniMax-M2.7 ist über MiniMax’ eigene Open Platform verfügbar und auch auf CometAPI gelistet, sodass es zwei unkomplizierte Zugangswege gibt — je nachdem, ob Sie direkt mit MiniMax oder über einen API-Aggregator arbeiten möchten. Laut den Dokumentationen von MiniMax kann M2.7 mit Abrechnungsoptionen wie Token Plan und Pay-As-You-Go genutzt werden, und es wird ausdrücklich empfohlen, M2.7 in Coding-Tool-Workflows wie Claude Code einzusetzen.
Einer der disruptivsten Vorteile von MiniMax ist die Preisgestaltung. Im Vergleich zu Wettbewerbern: bis zu 10×–20× günstiger als führende Frontier-Modelle. M2.7 setzt diesen Trend fort und macht es:
- Ideal für großskalige Bereitstellung
- Geeignet für langlaufende Agenten
- Zugänglich für Start-ups und Unternehmen
In CometAPI ist der API-Preis für Minimax M2.7 um 20 % reduziert:
| Comet-Preis (USD / M Tokens) | Offizieller Preis (USD / M Tokens) | Rabatt |
|---|---|---|
| Input:$0.24/M; Output:$0.96/M | Input:$0.3/M; Output:$1.2/M | -20% |
MiniMax-M2.7 ist über MiniMax’ eigene Open Platform verfügbar und auch auf CometAPI gelistet, sodass es zwei unkomplizierte Zugangswege gibt — je nachdem, ob Sie direkt mit MiniMax oder über einen API-Aggregator arbeiten möchten. Laut den Dokumentationen von MiniMax kann M2.7 mit Abrechnungsoptionen wie Token Plan und Pay-As-You-Go genutzt werden, und es wird ausdrücklich empfohlen, M2.7 in Coding-Tool-Workflows wie Claude Code einzusetzen.
Die praktische Schlussfolgerung ist also einfach: Wenn Sie den direktesten offiziellen Weg möchten, nutzen Sie MiniMax’ Open Platform; wenn Sie eine günstigere Drittanbieter-Zugriffsschicht möchten, bewirbt CometAPI derzeit niedrigere Preise pro Token für M2.7.
Fazit
MiniMax-M2.7 wirkt wie ein ernstzunehmender Schritt in der Roadmap des Unternehmens für Agentenmodelle und legt den Schwerpunkt auf Software Engineering, Office-Produktivität, Interaktion mit komplexen Umgebungen und eine von Selbstverbesserung geprägte Trainingsgeschichte. Die Benchmark-Behauptungen sind stark genug, um Aufmerksamkeit zu verdienen, und der unabhängige Kilo-Test legt nahe, dass das Modell sich in realen Coding-Agent-Szenarien behaupten kann. Für Entwickler ist die sinnvollste Betrachtungsweise von M2.7 die eines tief lesenden, toolfähigen Modells, das von klaren Anweisungen, strukturierten Workflows und sorgfältigem Kostenmanagement profitiert.
Entwickler können jetzt über CometAPI auf MiniMax-M2.7 zugreifen (CometAPI bietet einen deutlich niedrigeren Preis als der offizielle Preis, um Ihnen die Integration zu erleichtern). Bevor Sie zugreifen, stellen Sie bitte sicher, dass Sie sich bei CometAPI angemeldet und den API-Schlüssel erhalten haben. Bereit loszulegen?
