Minimax M2 API

CometAPI
AnnaOct 28, 2025
Minimax M2 API

MiniMax M2 er en åpen kildekode, agent-native stor språkmodell (LLM) utgitt av MiniMax den Oktober 27, 2025Den er eksplisitt konstruert for koding og agentiske arbeidsflyter (verktøyanrop, flertrinnsautomatisering), prioritering lav latency og kostnadseffektiv servering samtidig som man leverer sterk resonnement og evner til å bruke verktøy.

Nøkkelegenskaper

Høydepunkter — spesialisering i kodeing, agentiske arbeidsflyter, lavt fotavtrykk for aktive parametre, støtte for lang kontekst, OpenAI-kompatibel APIMiniMax-posisjoner Minimax M2 som en rask, utrullingsvennlig MoE-modell beregnet for flertrinnsagenter, kodegenerering og -reparasjon, terminal-/IDE-arbeidsflyter og verktøykall.

Merkbare kuler (kjapt):

  • Arkitektur: Ekspertblanding (MoE) med et veldig stort totalt parameterantall og et lite aktivert parametersett per fremoverpassering.
  • Aktiveringsfotavtrykk: ~10 milliarder aktive parametere (per token).
  • Totalt antall parametere (rapportert): rapportert mellom ~200B – 230B avhengig av kilde/måling (se Tekniske detaljer).
  • Kontekstvindu: lang kontekst på bedriftsnivå; 204,800-symboler maksimal kontekst.
  • Primær modalitet: tekst (verktøykall/funksjonskall støttes).
  • Agent-native: designet for flertrinnsverktøykall (skall, nettleser, Python-tolk, MCP-verktøy).
  • Fokus på koding: optimalisert for redigering av flere filer, run-fix-løkker og CI/IDE-oppgaver.

Tekniske detaljer (arkitektur og spesifikasjoner)

Arkitektur — Blanding av eksperter (MoE): Minimax M2 API-et bruker en MoE-strategi slik at modellen kan ha en veldig stort totalt parameterantall mens man bare aktiverer en brøkdel per inferensstrinn. Dette gir forbedret beregningseffektivitet, gjennomstrømningog kostnad per token for interaktive agenter og kodeløkker.

Presisjon og kvantisering — Modellfiler og leverandørstabler lister opp FP32/BF16- og FP8-formater og flere kvantiserte bygg (safetensorer, FP8/E4M3 osv.), noe som muliggjør lokal distribusjon og effektivitetsavveininger.

Kontekst og I/O — distribuerte leverandører publiserer 204,800 token kontekststøtte og store maksimale utgangsinnstillinger. M2 er kun tekst foreløpig (mange åpne utgivelser fra Kina har vektlagt tekst-/agentfunksjoner, mens multimodal fortsatt er domenet til andre utgivelser).

Anbefalinger for kjøretid / spesielle instruksjoner — Minimax M2 API-et bruker en «sammenflettet tenkning» utdataformat som pakker inn modellens interne resonnement i <think>...</think> blokker. MiniMax' forespørsel om å holde det tankeinnholdet intakt og sende det tilbake i historisk kontekst for å bevare ytelsen for agentarbeidsflyter med flere omganger.

Benchmark ytelse

Sammensatt intelligens og agentbenchmarks — uavhengig benchmarking fra Artificial Analysis rapporterer at MiniMax-M2 oppnår en intelligensindeks som er best i sin klasse blant modeller med åpen vekt, og rangerer blant de toppmodeller med åpen kildekode på sammensatte intelligensmålinger, spesielt i verktøybruk, instruksjonsfølgelse og agentoppgaverKunstig analyse fremhever modellens effektivitet (svært få aktive parametere) som en viktig driver for rangeringen.

Minimax M2 API

Minimax M2  viser sterke resultater på kode- og agentpakker (oppgavetyper av typen Terminal-Bench, SWE-Bench, BrowseComp, LiveCodeBench), der arkitekturen og aktiveringsbudsjettet favoriserer planlegging → handling → verifisering av løkker (kompilerings-/kjørings-/testsykluser, redigeringer av flere filer og verktøykjeder).

Minimax M2 API

Sammenligning: MiniMax M2 vs. andre moderne modeller

Mot jevnaldrende i åpen vekt (DeepSeek, Qwen3, Kimi, osv.) — Minimax M2  presenteres som spesielt effektiv på et budsjett for aktive parametere (≈10B), noe som gir sterke intelligens-per-aktiv-parameter-forhold; andre åpne modeller kan ha høyere antall aktive parametere, men lignende eller høyere totale parametere.

Mot kommersielle grensemodeller (OpenAI / Anthropic / Google / xAI) — rapporteringssteder M2 under de aller beste kommersielle modellene på noen generalistiske målinger, men konkurransedyktig eller foran på mange agent- og kodereferanser for prispunktet.

Avveininger mellom kostnad og hastighet – Kostnaden per token er bare 8 % av Anthropic Claude Sonnet, og hastigheten er omtrent dobbelt så rask.

Begrensninger og risikoer

Begrensninger — ordrikhet (høy tokenbruk), tekstbasert modalitet, oppgavespesifikke svakheter, og de vanlige LLM-risikoene (hallusinasjoner, overdreven selvtillit, datasettskjevheter). Både Artificial Analysis og MiniMax påpeker at M2 kan underprestere noen store generalistmodeller på visse åpne oppgaver, selv om den utmerker seg på agent- og kodearbeidsflyter. Fordi den er MoE-basert, hensyn til utplassering (ekspertruting, kvantisering og inferensrammeverk) er viktige.

Operasjonelle forbehold — Minimax M2 'S sammenflettet tenkning formatet krever at spesielle <think>...</think> tokener på tvers av historikken for best mulig ytelse; fjerning av dette innholdet kan forringe agentens oppførsel. Også fordi Minimax M2  er ordrik, er kostnad per oppgave en funksjon av begge pris per token og totalt antall genererte tokens.

Primære brukstilfeller

  • Agentorkestrering og lange arbeidsflyter — flertrinns verktøykjeder, bla gjennom → hent → utfør sykluser, feilgjenopprettingog sporbarhet av bevis i agentkjøringer.
  • Utviklerproduktivitet og kodeassistenter — kompiler-kjør-test-løkker, redigeringer av flere filer, testvaliderte reparasjonerog IDE-integrasjon (Det finnes eksempler på CLI fra Claude Code, Cursor, Codex og Grok).
  • Høykapasitets agentflåter / produksjonsroboter — hvor kostnad per inferens og samtidighet Uansett kan M2s lave aktiverte parameteravtrykk redusere infrastrukturkostnadene.

Hvordan ringe Minimax M2  API fra CometAPI

minimax-m2 API-priser i CometAPI, 20 % avslag på den offisielle prisen:

  • Inndatatokener: $0.24 millioner tokener
  • Output tokens: $0.96/M tokens

Nødvendige trinn

  • Logg på cometapi.com. Hvis du ikke er vår bruker ennå, vennligst registrer deg først.
  • Logg inn på din CometAPI-konsoll.
  • Få tilgangslegitimasjons-API-nøkkelen til grensesnittet. Klikk "Legg til token" ved API-tokenet i det personlige senteret, hent tokennøkkelen: sk-xxxxx og send inn.

Minimax M2 API

Bruk metoden

  1. Velg endepunktet «minimax-m2» for å sende API-forespørselen og angi forespørselsteksten. Forespørselsmetoden og forespørselsteksten er hentet fra nettstedets API-dokumentasjon. Nettstedet vårt tilbyr også Apifox-testing for enkelhets skyld.
  2. Erstatt med din faktiske CometAPI-nøkkel fra kontoen din.
  3. Sett inn spørsmålet eller forespørselen din i innholdsfeltet – det er dette modellen vil svare på.
  4. . Behandle API-svaret for å få det genererte svaret.

CometAPI tilbyr et fullt kompatibelt REST API – for sømløs migrering. Viktige detaljer for API-dok:

API-integrasjon og eksempler

Nedenfor er en Python kodebit som demonstrerer hvordan man starter GLM-4.6 via CometAPIs API. Erstatt <API_KEY> og <PROMPT> tilsvarende:

import requests

API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
    "Authorization": "Bearer <API_KEY>",
    "Content-Type": "application/json"
}
payload = {
    "model": "minimax-m2",
    "messages": [
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user",   "content": "<PROMPT>"}
    ],
    "max_tokens": 512,
    "temperature": 0.7
}

response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())

Se også Claude Haiku 4.5 API

Les mer

500+ modeller i ett API

Opptil 20 % rabatt