Home/Models/MiniMax/MiniMax M2.5
M

MiniMax M2.5

Indtast:$0.24/M
Output:$0.96/M
MiniMax-M2.5 er en state-of-the-art stor sprogmodel, der er designet til produktivitet i den virkelige verden. Trænet i en bred vifte af komplekse digitale arbejdsmiljøer fra den virkelige verden bygger M2.5 videre på M2.1's kodeekspertise for dermed at udvide til generelle kontoropgaver og opnå flydende færdigheder i at oprette og arbejde med Word-, Excel- og Powerpoint-filer, skifte kontekst mellem forskellige softwaremiljøer samt arbejde på tværs af forskellige agent- og mennesketeams.
Ny
Kommersiel brug
Playground
Oversigt
Funktioner
Priser
API

Tekniske specifikationer for MiniMax‑M2.5

FieldClaim / value
Model nameMiniMax-M2.5 (produktionsudgivelse, 12. feb. 2026).
ArchitectureMixture-of-Experts (MoE) Transformer (M2-familien).
Total parameters~230 milliarder (samlet MoE-kapacitet).
Active (per-inference) parameters~10 milliarder aktiveret pr. inferens (sparsom aktivering).
Input typesTekst og kode (indbygget understøttelse af kodekontekster med flere filer), tool-calling / API-værktøjsgrænseflader (agentiske workflows).
Output typesTekst, strukturerede output (JSON/tool calls), kode (flere filer), Office-artefakter (PPT/Excel/Word via værktøjskæder).
Variants / modesM2.5 (høj nøjagtighed/kapacitet) og M2.5-Lightning (samme kvalitet, lavere latenstid / højere TPS).

Hvad er MiniMax‑M2.5?

MiniMax‑M2.5 er flagskibsopdateringen i M2.x-familien med fokus på produktivitet i den virkelige verden og agentiske workflows. Udgivelsen lægger vægt på forbedret opgavedekomponering, integration af værktøjer/søgning, højere troværdighed i kodegenerering og tokeneffektivitet til udvidede problemer i flere trin. Modellen tilbydes i en standardvariant og en variant med lavere latenstid, “lightning”, som er beregnet til forskellige kompromiser i implementering.


Hovedfunktioner i MiniMax‑M2.5

  1. Agentic-first-design: Forbedret planlægning og værktøjsorkestrering til opgaver i flere faser (søgning, tool calls, kodeeksekveringsmiljøer).
  2. Tokeneffektivitet: Rapporterede reduktioner i tokenforbrug pr. opgave sammenlignet med M2.1, hvilket muliggør lavere end-to-end-omkostninger for lange workflows.
  3. Hurtigere end-to-end-fuldførelse: Udbyderens benchmarkrapporter angiver gennemsnitlige opgavefuldførelsestider på ~37 % hurtigere end M2.1 i agentiske kodeevalueringer.
  4. Stærk kodeforståelse: Tunet på flersprogede kodekorpora for robuste refaktoreringer på tværs af sprog, redigeringer i flere filer og ræsonnering i repositorieskala.
  5. Servering med høj throughput: Målrettet produktionsimplementeringer med høje token/sek.-profiler; egnet til kontinuerlige agentarbejdsbelastninger.
  6. Varianter til kompromiser mellem latenstid og ydeevne: M2.5‑lightning tilbyder lavere latenstid ved lavere compute-forbrug og mindre footprint til interaktive scenarier.

Benchmarkydelse (rapporteret)

Højdepunkter rapporteret af udbyderen — repræsentative målinger (udgivelse):

  • SWE‑Bench Verified: 80.2% (rapporteret beståelsesrate på udbyderens benchmarkmiljøer)
  • BrowseComp (søgning og værktøjsbrug): 76.3%
  • Multi‑SWE‑Bench (flersproget kodning): 51.3%
  • Relativ hastighed / effektivitet: ~37% hurtigere end-to-end-fuldførelse vs. M2.1 på SWE‑Bench Verified i udbydertests; ~20 % færre søge-/værktøjsrunder i nogle evalueringer.

Fortolkning: Disse tal placerer M2.5 på niveau med eller tæt på branchens førende agentiske/kodemodeller på de nævnte benchmarks. Benchmarks er rapporteret af udbyderen og gengivet af flere aktører i økosystemet — betragt dem som målt under udbyderens miljø/konfiguration, medmindre de er uafhængigt reproduceret.


MiniMax‑M2.5 vs. andre modeller (kort sammenligning)

DimensionMiniMax‑M2.5MiniMax M2.1Peer example (Anthropic Opus 4.6)
SWE‑Bench Verified80.2%~71–76% (varierer efter miljø)Sammenlignelig (Opus rapporterede resultater nær toppen)
Agentic task speed37% hurtigere vs. M2.1 (udbydertests)BaselineLignende hastighed i specifikke miljøer
Token efficiencyForbedret vs. M2.1 (~færre tokens pr. opgave)Højere tokenforbrugKonkurrencedygtig
Best useProduktionsklare agentiske workflows, kodepipelinesTidligere generation i samme familieStærk til multimodal ræsonnering og sikkerhedstunede opgaver

Note fra udbyderen: sammenligninger er afledt af udgivelsesmaterialer og leverandørers benchmarkrapporter. Små forskelle kan være følsomme over for miljø, værktøjskæde og evalueringsprotokol.

Repræsentative enterprise-use cases

  1. Refaktoreringer i repositorieskala og migrationspipelines — bevar hensigten på tværs af redigeringer i flere filer og automatiserede PR-patches.
  2. Agentisk orkestrering til DevOps — orkestrer testkørsler, CI-trin, pakkeinstallationer og miljødiagnostik med værktøjsintegrationer.
  3. Automatiseret kodegennemgang og afhjælpning — triager sårbarheder, foreslå minimale rettelser og forbered reproducerbare testcases.
  4. Søgedrevet informationssøgning — udnyt BrowseComp-niveauets søgekompetence til at udføre udforskning i flere runder og opsummering af tekniske vidensbaser.
  5. Produktionsagenter og assistenter — kontinuerlige agenter, der kræver omkostningseffektiv og stabil inferens over lang tid.

Sådan får du adgang til og integrerer MiniMax‑M2.5

Trin 1: Tilmeld dig en API-nøgle

Log ind på cometapi.com. Hvis du endnu ikke er bruger hos os, skal du først registrere dig. Log ind på din CometAPI-konsol. Hent adgangsoplysningen API key til grænsefladen. Klik på “Add Token” under API token i det personlige center, hent token-nøglen: sk-xxxxx, og indsend den.

Trin 2: Send anmodninger til minimax-m2.5 API

Vælg endpointet “minimax-m2.5” for at sende API-anmodningen og angive request body. Request method og request body findes i API-dokumentationen på vores website. Vores website tilbyder også Apifox-test for nemheds skyld. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto. Hvor det kaldes: Chat format.

Indsæt dit spørgsmål eller din anmodning i content-feltet — det er dette, modellen vil svare på. Behandl API-svaret for at få det genererede svar.

Trin 3: Hent og verificer resultater

Behandl API-svaret for at få det genererede svar. Efter behandling svarer API’et med opgavestatus og outputdata.

FAQ

What kind of tasks is MiniMax-M2.5 optimized for?

MiniMax-M2.5 er optimeret til produktivitet i den virkelige verden og agentiske arbejdsgange — især kompleks kodning, flertrinsplanlægning, værktøjskald, søgning og systemudvikling på tværs af platforme. Dens træning lægger vægt på håndtering af hele udviklingslivscyklusser fra arkitekturplanlægning til kodegennemgang og test.

How does MiniMax-M2.5 compare to previous versions like M2.1?

Sammenlignet med M2.1 viser M2.5 betydelige forbedringer i opgavenedbrydning, tokeneffektivitet og hastighed — for eksempel ved at gennemføre visse agentiske benchmarks omkring 37 % hurtigere og med færre tokens brugt pr. opgave.

What benchmarks does MiniMax-M2.5 achieve on coding and agentic tasks?

M2.5 opnår omkring 80,2 % på SWE-Bench Verified, cirka 51,3 % på Multi-SWE-Bench og omtrent 76,3 % på BrowseComp i kontekster, hvor opgaveplanlægning og søgning er aktiveret — resultater, der er konkurrencedygtige med flagskibsmodeller fra andre udbydere.

Does MiniMax-M2.5 support multiple programming languages?

Ja — M2.5 blev trænet på over 10 programmeringssprog, herunder Python, Java, Rust, Go, TypeScript, C/C++, Ruby og Dart, hvilket gør det i stand til at håndtere forskellige kodningsopgaver på tværs af økosystemer.

Is MiniMax-M2.5 suitable for full-stack and cross-platform development?

Ja — MiniMax positionerer M2.5 til at håndtere full-stack-projekter, der spænder over web, Android, iOS, Windows og Mac, og dækker design-, implementerings-, iterations- og testfaser.

What are the main efficiency and cost advantages of MiniMax-M2.5?

M2.5 kan køre med høj tokengennemstrømning (f.eks. ~100 tokens/sek.) med omkostningseffektivitet, der er omkring 10–20× lavere end mange frontier-modeller på basis af outputpris, hvilket muliggør skalerbar implementering af agentiske arbejdsgange.

How do I integrate MiniMax-M2.5 into my application?

MiniMax-M2.5 er tilgængelig via API-endepunkter (f.eks. standard- og høj-throughput-varianter) ved at angive minimax-m2.5 som model i forespørgsler.

What are known limitations or ideal scenarios to avoid?

M2.5 udmærker sig ved kodning og agentiske opgaver; den kan være mindre specialiseret til rent kreativ narrativ generering sammenlignet med dedikerede kreative modeller, så til historieskrivning eller kreativ fiktion kan andre modeller være at foretrække.

Funktioner til MiniMax M2.5

Udforsk de vigtigste funktioner i MiniMax M2.5, designet til at forbedre ydeevne og brugervenlighed. Opdag hvordan disse muligheder kan gavne dine projekter og forbedre brugeroplevelsen.

Priser for MiniMax M2.5

Udforsk konkurrencedygtige priser for MiniMax M2.5, designet til at passe til forskellige budgetter og brugsbehov. Vores fleksible planer sikrer, at du kun betaler for det, du bruger, hvilket gør det nemt at skalere, efterhånden som dine krav vokser. Opdag hvordan MiniMax M2.5 kan forbedre dine projekter, mens omkostningerne holdes håndterbare.
Comet-pris (USD / M Tokens)Officiel Pris (USD / M Tokens)Rabat
Indtast:$0.24/M
Output:$0.96/M
Indtast:$0.3/M
Output:$1.2/M
-20%

Eksempelkode og API til MiniMax M2.5

Få adgang til omfattende eksempelkode og API-ressourcer for MiniMax M2.5 for at strømline din integrationsproces. Vores detaljerede dokumentation giver trin-for-trin vejledning, der hjælper dig med at udnytte det fulde potentiale af MiniMax M2.5 i dine projekter.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="minimax-m2.5",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Write a one-sentence introduction to MiniMax M2.5."},
    ],
)

print(completion.choices[0].message.content)

Flere modeller