Minimax M2 API

CometAPI
AnnaOct 28, 2025
Minimax M2 API

MiniMax M2 er en open source, agent-native stor sprogmodel (LLM) udgivet af MiniMax d. Oktober 27, 2025Den er eksplicit konstrueret til kodning og agentiske arbejdsgange (værktøjskald, flertrinsautomatisering), prioritering lav latency og omkostningseffektiv servering, samtidig med at man leverer stærk ræsonnement og evner til at bruge værktøjer.

Nøglefunktioner

Højdepunkter — specialisering i kodning, agentiske arbejdsgange, lavt fodaftryk af aktive parametre, lang kontekstunderstøttelse, OpenAI-kompatibel APIMiniMax-positioner Minimax M2 som en hurtig, implementeringsvenlig MoE-model Beregnet til flertrinsagenter, kodegenerering og -reparation, terminal-/IDE-arbejdsgange og værktøjskald.

Bemærkelsesværdige punkttegn (hurtigt):

  • Arkitektur: Blanding af eksperter (MoE) med et meget stort samlet parameterantal og et lille aktiveret parametersæt pr. fremadgående gennemløb.
  • Aktiveringsfodaftryk: ~10 milliarder aktive parametre (pr. token).
  • Samlede parametre (rapporteret): rapporteret mellem ~200B – 230B afhængigt af kilde/måling (se Tekniske detaljer).
  • Kontekstvindue: lang kontekst på virksomhedsniveau; 204,800-symboler maksimal kontekst.
  • Primær modalitet: tekst (værktøjskald / funktionskald understøttes).
  • Agent-nativedesignet til flertrinsværktøjskald (shell, browser, Python-fortolker, MCP-værktøjer).
  • Fokus på kodningOptimeret til redigering af flere filer, run-fix-løkker og CI/IDE-opgaver.

Tekniske detaljer (arkitektur og specifikationer)

Arkitektur — Blanding af eksperter (MoE): Minimax M2 API'en bruger en MoE-strategi, så modellen kan have en meget stort samlet parameterantal mens kun en brøkdel aktiveres pr. inferenstrin. Dette giver forbedret beregningseffektivitet, kapacitetog pris pr. token til interaktive agenter og kodningsløkker.

Præcision og kvantisering — Modelfiler og provider-stakke viser FP32/BF16- og FP8-formater og flere kvantiserede builds (safetensorer, FP8/E4M3 osv.), hvilket muliggør lokal implementering og effektivitetsafvejninger.

Kontekst og I/O — implementerede udbydere udgiver 204,800 token kontekstunderstøttelse og store maksimale outputindstillinger. M2 er kun tekst for nu (mange åbne udgivelser fra Kina har lagt vægt på tekst-/agentfunktioner, mens multimodal forbliver domænet for andre udgivelser).

Anbefalinger til kørselstid / særlige instruktioner — Minimax M2 API'en bruger en "sammenflettet tænkning" outputformat, der indkapsler modellens interne ræsonnement i <think>...</think> blokke. MiniMax' anmodning om at bevare dette tankeindhold intakt og sende det tilbage i historisk kontekst for at bevare ydeevnen for multi-turn agent workflows.

Benchmark ydeevne

Sammensat intelligens og agentbenchmarks — uafhængig benchmarking fra Artificial Analysis rapporterer, at MiniMax-M2 opnår klassens bedste intelligensindeks blandt modeller med åben vægt, og rangerer blandt de de bedste open source-modeller på sammensatte intelligensmålinger, især i brug af værktøj, instruktioner og agentopgaverKunstig analyse fremhæver modellens effektivitet (meget få aktive parametre) som en nøglefaktor for dens rangering.

Minimax M2 API

Minimax M2  viser stærke resultater på kodning og agentpakker (Terminal-Bench, SWE-Bench, BrowseComp, LiveCodeBench-opgaver), hvor dens arkitektur og aktiveringsbudget favoriserer planlægning → handling → verifikation af løkker (kompilerings-/kørsels-/testcyklusser, redigeringer af flere filer og værktøjskæder).

Minimax M2 API

Sammenligning: MiniMax M2 vs. andre moderne modeller

Mod open-weights-kolleger (DeepSeek, Qwen3, Kimi osv.) — Minimax M2  præsenteres som særligt effektiv på et aktivt parameterbudget (≈10B), hvilket giver et stærkt intelligens-per-aktiv-parameter-forhold; andre åbne modeller kan have højere antal aktive parametre, men lignende eller højere samlede parametre.

Mod kommercielle frontlinjemodeller (OpenAI / Anthropic / Google / xAI) — rapporteringssteder M2 under de allerbedste kommercielle modeller på nogle generalistiske målinger, men konkurrencedygtig eller foran på mange agent- og kodningsbenchmarks for dens pris.

Afvejninger mellem omkostninger og hastighed — Dens pris pr. token er kun 8% af Anthropic Claude Sonnet, og dens hastighed er cirka dobbelt så hurtig.

Begrænsninger og risici

Begrænsninger — detaljerigdom (høj tokenbrug), tekst-kun-modalitet, opgavespecifikke svagheder, og de sædvanlige LLM-risici (hallucinationer, overdreven selvtillid, datasætbias). Både Artificial Analysis og MiniMax påpeger, at M2 muligvis underpræsterer nogle store generalistmodeller på visse åbne opgaver, selvom den udmærker sig ved agent- og kodningsarbejdsgange. Fordi den er MoE-baseret, overvejelser om implementering (ekspertrouting, kvantisering og inferensrammer) er vigtige.

Operationelle forbehold — Minimax M2 's sammenflettet tænkning format kræver bevaring af særlige <think>...</think> tokens på tværs af historikken for den bedste ydeevne; fjernelse af dette indhold kan forringe agentens adfærd. Også fordi Minimax M2  er ordrig, er omkostningerne pr. opgave en funktion af begge pris pr. token og samlede genererede tokens.

Primære anvendelsesscenarier

  • Agentorkestrering og lange arbejdsgange — flertrins værktøjskæder, gennemse→hent→udfør cyklusser, fejlretningog sporbarhed af bevismateriale i agentkørsler.
  • Udviklerproduktivitet og kodningsassistenter — kompiler-kør-test-løkker, redigeringer af flere filer, testvaliderede reparationerog IDE integration (Der findes eksempler på CLI fra Claude Code, Cursor, Codex og Grok).
  • Agentflåder med høj kapacitet / produktionsbots — hvor pris pr. inferens og samtidighed Uanset hvad kan M2's lave aktiverede parameterfodaftryk reducere infrastrukturomkostningerne.

Sådan ringer du Minimax M2  API fra CometAPI

minimax-m2 API-priser i CometAPI, 20 % rabat på den officielle pris:

  • Input-tokens: $0.24 millioner tokens
  • Output-tokens: $0.96/M-tokens

Påkrævede trin

  • Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, bedes du registrere dig først.
  • Log ind på din CometAPI-konsol.
  • Få adgangslegitimations-API-nøglen til grænsefladen. Klik på "Tilføj token" ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og send.

Minimax M2 API

Brug metoden

  1. Vælg "minimax-m2"-slutpunktet for at sende API-anmodningen, og angiv anmodningsteksten. Anmodningsmetoden og anmodningsteksten kan hentes fra vores hjemmesides API-dokumentation. Vores hjemmeside tilbyder også en Apifox-test for din bekvemmelighed.
  2. Erstatte med din faktiske CometAPI-nøgle fra din konto.
  3. Indsæt dit spørgsmål eller din anmodning i indholdsfeltet – det er det, modellen vil reagere på.
  4. . Behandle API-svaret for at få det genererede svar.

CometAPI leverer en fuldt kompatibel REST API – til problemfri migrering. Vigtige detaljer til API-dok:

API-integration og eksempler

Nedenfor er en Python uddrag der demonstrerer hvordan man kalder GLM-4.6 via CometAPI's API. Erstat <API_KEY> og <PROMPT> derfor:

import requests

API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
    "Authorization": "Bearer <API_KEY>",
    "Content-Type": "application/json"
}
payload = {
    "model": "minimax-m2",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user",   "content": "<PROMPT>"}
    ],
    "max_tokens": 512,
    "temperature": 0.7
}

response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())

Se også Claude Haiku 4.5 API

Læs mere

500+ modeller i én API

Op til 20% rabat