Sådan får du adgang til og bruger du Minimax M2 API

CometAPI
AnnaDec 2, 2025
Sådan får du adgang til og bruger du Minimax M2 API

MiniMax M2, en ny generation af store sprogmodeller optimeret til agentiske arbejdsgange og end-to-end-kodning. MiniMax har offentliggjort MiniMax-M2 og offentliggjort vægte på Hugging Face; det er en MoE (sparse) model med et meget stort samlet parameterbudget, men et meget mindre aktivt sæt pr. token, og den understøtter meget store kontekster (200k+ tokens).

Minimax M2's design er virkelig fremragende, og jeg tror, ​​at udviklere er ivrige efter at opleve dens funktioner. Her er nogle løsninger til brug af M2, samt avancerede teknikker, der kan bruges som reference. Til brug af Minimax M2 anbefaler jeg CometAPI. Denne artikel forklarer, hvad M2 er, og dens nøglefunktioner, sammenligner hosted API-adgang vs. self-hosting, beskriver priser og praktiske eksempler på kald af modellen, og afslutter med avancerede optimerings- og værktøjsteknikker for at opnå ydeevne og omkostningseffektivitet i produktionsklassen.

Hvad er MiniMax M2?

MiniMax M2 er det nyeste flagskib fra MiniMax: en tekstmodel med åben vægt og en blanding af eksperter (MoE) designet til "agentiske" arbejdsgange (værktøjsbrug, kode, flertrinsargumentation) og langt kontekstarbejde. Offentlig rapportering og fællesskabsdokumentation beskriver M2 som en meget stor model (hundredvis af milliarder af parametre i alt under et MoE-design, med et væsentligt mindre antal aktive parametre brugt pr. gennemløb), der sigter mod høj gennemløb og omkostningseffektivitet, samtidig med at den understøtter store kontekstvinduer til komplekse opgaver med flere filer og flere værktøjer. Uafhængige benchmarkere og opskriftsvedligeholdere har hurtigt tilføjet MiniMax M2 til vLLM/Ollama/andre inferensstakke, og MiniMax udgiver API'er og udviklerdokumentation til modellen og dens agentværktøjer.

Hvorfor M2 er vigtig: MiniMax M2 er positioneret som det praktiske valg for organisationer, der bygger agentsystemer – assistenter, der skal kalde værktøjer, redigere filer, vedligeholde langtidskontekst og hurtigt håndtere inferensomkostninger. Tidlige analyser viser stærk kapacitet pr. dollar på fælles benchmarks for kodning, matematik og værktøjsbrug.

Kernefunktioner og arkitektur

Blanding af eksperter, store samlede parametre men lille aktivt fodaftryk

M2 rapporteres at indeholde et meget stort samlet parameterantal (rapporteringen varierer fra hundredvis af milliarder), mens den kun aktiverer et meget mindre antal parametre pr. fremadrettet gennemgang — MiniMax publicerer materialer fremhæver ~230B samlede parametre med en aktiv parameterfodaftryk i størrelsesordenen ~10B til inferens. Det er denne afvejning, der giver M2 dens krav på høj kapacitet med forholdsvis lav beregning og latenstid pr. token (typiske fordele ved MoE: høj modelkapacitet, lavere aktiveringsomkostninger).

Lang kontekststøtte

MiniMax reklamerer med meget store kontekstvinduer til M2 (rettet mod lange kontekster på virksomhedsniveau). Nogle platformdokumentationer i udgivelsesmaterialerne nævner understøttelse af ekstremt store token-vinduer (tiere til hundredtusindvis af tokens), hvilket er nyttigt til kodningsopgaver med flere dokumenter, lange agentspor og hentningsforøgede flows. (Hvis du planlægger at bruge meget lang kontekst, skal du teste udbyderens praktiske begrænsninger: udbydere pålægger nogle gange udrulnings- eller ingeniørbegrænsninger, selv når modelarkitekturen understøtter ekstreme vinduer.)

Agent-native værktøjer og fokus på kodning

MiniMax M2 er eksplicit indstillet til værktøjskald og flertrinsautomatisering (integrationer af shell/browser/Python-værktøjer) og til kodningsworkflows (redigering af flere filer, run-fix-cyklusser, testbaserede reparationer). Forvent bedre nul-skuds værktøjsorkestreringsadfærd og forbedret "opfølgning" på flertrinsudvikleropgaver sammenlignet med generiske chatmodeller.

Hvordan kan udviklere bruge og få adgang til MiniMax M2?

Du har to primære operationelle veje: brug den hostede API (hurtig, lav friktion) eller selvvært modellen (mere kontrol, potentielt lavere marginalomkostninger i meget stor skala eller af hensyn til privatlivets fred). Nedenfor er praktiske, gennemførlige trin for begge.

Mulighed A — Hostet API (anbefales til de fleste teams)

CometAPI udsætter MiniMax M2 bag en OpenAI-kompatibel HTTP-overflade, så du kan kalde modellen med de samme chat-/fuldførelsesmønstre, du allerede bruger — du skal blot tilmelde dig, få en sk-... API-nøgle, peg din klient på CometAPI's basis-URL, og anmod om minimax-m2 model. CometAPI tilbyder en legeplads, gratis prøvetokens og omkostningsrabatter i forhold til leverandørens direkte hostede pris, hvilket gør det til en attraktiv vej til hurtig prototyping og produktionsmigrering.

Hvornår skal man vælge dette: hurtig integration, små teams, produktionsimplementering uden administration af inferensinfrastruktur, eller når du værdsætter automatiske modelopdateringer og overvågning.

Trin (hostet API):

  1. Opret en konto på CometAPI og log ind.
  2. Fra dashboardet (Konsol / Tokens) skal du oprette eller kopiere et API-token — nøgler ser sådan ud sk-XXXXXGem dette i din Secrets Manager eller miljøvariabler; commit det ikke. CometAPI giver et begrænset antal gratis tokens til testning i mange konti.
  3. CometAPIs HTTP-overflade er OpenAI-kompatibel. Skift din klients basis-URL til https://api.cometapi.com/v1/chat/completions og derefter bruge OpenAI-lignende JSON-nyttelaster (f.eks. model, messages, max_tokens, temperature). Det betyder, at det meste OpenAI SDK-kode fungerer med en lille ændring i api_base / base_url.
  4. Vælg modelstrengen: Brug modelnavnet udgivet af CometAPI til MiniMax M2 — almindeligvis minimax-m2 (CometAPI-modelsiden viser modellen og eksempelbrugen).
  5. Foretag opkald — Et generisk curl-eksempel (OpenAI-stil JSON) ser sådan ud:
curl -X POST "https://api.cometapi.com/v1/chat/completions" \
  -H "Authorization: Bearer $CometAPI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "minimax-m2",
    "messages": [
      {"role":"system","content":"You are a helpful coding assistant."},
      {"role":"user","content":"Refactor this function to be async..."}
    ],
    "max_tokens": 1024,
    "temperature": 0.2
  }'

Bemærk: Erstat endpoint- og parameternavnene med de nøjagtige værdier fra CometAPIs API-dokumentation; MiniMax dokumenterer OpenAI-kompatible mønstre og agentprimitiver i deres udviklerportal.

Et almindeligt mønster er:

  1. Planner — udarbejde en trinvis plan (f.eks. hent data, kald til web, kør tests).
  2. Skuespiller — kaldværktøjer (API'er, shell, kodeudførelse) som specificeret i planen.
  3. verifikator — kør tests eller kontroller og vend tilbage i løkke, hvis der opstår fejl.

MiniMax M2's træning og konfiguration understreger disse sammenfletninger, så modellen har en tendens til at producere velformede værktøjskald og strukturerede output, når den gives scaffoldet.

Integrationstips til hostet API

  • Brug streaming hvor understøttet for at reducere opfattet latenstid for brugerne og tillade delvis håndtering af output.
  • Implement hastighedsbegrænsning og gentagelseslogik for forbigående fejl.
  • Token-regnskabByg logføring for at spore input vs. output-tokens pr. anmodning, så du kan overvåge forbrug og indstille alarmer.

Mulighed B — Selvhosting (anbefales, når du har brug for isolation, brugerdefineret infrastruktur eller meget høj vedvarende dataoverførselshastighed)

Hvornår skal man vælge dette: compliance/privatlivsbehov (dataopbevaring), meget høj gennemløbshastighed, hvor amortiseret infrastruktur kan være billigere, eller brugerdefinerede modifikationer af stakken.

Krav og økosystem

  • Hardware: MoE-modellers aktive parameterfodaftryk kan være lille (10B aktiv), men de fysiske modelfiler, eksperttabeller og routinglogik har hukommelses-/IO-implikationer. Stor GPU-hukommelse (A100/H100-klasse eller multi-GPU-klynger), hurtig NVMe til modelshards og en forbindelse med høj båndbredde (NVLink/InfiniBand) er typiske for produktion. Offloading-strategier og kvantisering kan reducere kravene.
  • Inferensstak: vLLM, Ollama og andre community-stakke har M2-opskrifter og -dokumentation. Brug vLLM til gennemløb og servering med flere brugere; Ollama giver et nemmere lokalt udviklingsloop.
  • Containerisering og orkestrering: Pak modelserveren i containere (Docker) og kør den med Kubernetes / Autoscaler til produktion.

Grundlæggende selvhostet flow (højt niveau)

  1. Få vægte (følg licens- og brugsbetingelser) fra MiniMax-distributionen eller officielle filspejle. Da MiniMax M2-vægte er åbne, leverer fællesskabet emballage og opskrifter.
  2. Vælg en inferensmotor — vLLM til høj kapacitet eller en runtime som Ollama til lokal/testning. Installer og konfigurer motoren.
  3. Tjen modellen — kør vLLM'en eller den valgte server med modelstien og finjuster GPU/parallelitetsindstillingerne.
  4. Foran serveren med din egen API-gateway, der afspejler de headere/semantik, som din applikation forventer (f.eks. OpenAI-stil eller en brugerdefineret RPC). Tilføj godkendelses-, logførings- og hastighedsgrænser.

vLLM og lignende runtime optimerer gennemløbshastighed og hukommelseseffektivitet. MiniMax har udgivet vLLM-opskrifter og eksempelkonfigurationer til kørsel af M2 med GPU-hukommelsespartitionering og effektiv dispatch, eksempel (konceptuelt)::

# Example: launch vLLM server (stylized)

vllm_server --model-name MiniMaxAI/MiniMax-M2 \
            --num-gpus 4 \
            --dtype fp16 \
            --max-seq-len 8192
# Client snippet to call vLLM server

from vllm import Client
client = Client("http://localhost:8080")
resp = client.generate("Implement a Unix-style recursive directory listing in Python.")
print(resp.get_completions().text)

Hosted API vs. Self-hosting set fra et omkostningsperspektiv

Hostet API — fordele og ulemper

  • Fordele: Simpel fakturering (pr. token), administreret gennemløb, SLA'er, lavere engineering lift. Priserne på publicerede tokens er ekstremt lave for mange use cases (et godt udgangspunkt for eksperimenter).
  • Ulemper: Prissætning pr. token skaleres stadig med brugen; outputtokens faktureres til en højere takst; der er mindre kontrol over latenstid/gennemstrømningsjustering og leverandørlåsning til specialiseret routing eller håndtering af private data.

Selvhosting — fordele og ulemper

  • Fordele: Betal engangsomkostninger for infrastruktur og drift (GPU'er + infrastruktur) og få kontrol over kvantisering, batching og gennemløbsjustering; potentiale til at reducere $/token for stabile arbejdsbelastninger med ekstremt store volumener. MoE-modeller som M2 kan være billigere at betjene pr. token, når de køres med korrekt parallelisme og kvantisering.
  • Ulemper: Høj startkapital og drift: klyngedesign (H100/A100/A800/H200), netværk, ekspertparallelisme, load balancing. Ekspertparallelisme/vLLM-opskrifter er ikke trivielle at finjustere. Hvis du har brug for streng vedligeholdelse/oppetid, kan administreret hosting stadig være billigere samlet set.

Simpel beslutningsheuristik

  • Hvis du forventer lav til middel trafik eller ønsker hurtig introduktion til markedet: start med en hostet API.
  • Hvis du forventer vedvarende, meget høj gennemstrømning (millioner+ tokens/dag) og kan bemande drift, køre en omkostningsmodel, der sammenligner hostet fakturering pr. token med estimerede amortiserede omkostninger til infrastruktur/drift; MoE-selfhosting bliver ofte attraktivt i stor skala.

Pris og kommercielle muligheder

MiniMax viser priser pr. token på sine platformprissider (eksempel på offentliggjorte priser midt i udgivelsen): inputtokens ≈ 0.3 pr. 1 million tokens** og **outputtokens ≈ 1.2 pr. 1 million tokens på deres platform.

Hostet vs. skjulte omkostninger: Hvis du bruger en hosted API, betaler du de offentliggjorte API-priser og kan undgå drifts- og GPU-kapitaludgifter. Hvis du selvhoster, skal du forvente GPU-, lager-, netværks- og ingeniøromkostninger: MoE-modeller kræver specifik runtime-support og kan pålægge andre hukommelses-/IO-profiler end kompakte modeller (se afsnittet om selvhosting ovenfor).

Priser på CometAPI til MiniMax M2

CometAPI viser modelspecifikke priser på sine modelsider. For MiniMax M2 viser CometAPIs side eksempler på priser og en kampagnerabat i forhold til leverandøren:

  • Input tokens: ~$0.24 pr. 1 million tokens
  • Output tokens: ~$0.96 pr. 1 million tokens
  • CometAPI annoncerer rabatter (f.eks. "~20% rabat på den officielle pris" på nogle annoncer) og ofte en gratis token-tildeling til prøvekonti. Bekræft altid prisen på modelsiden og din kontos faktureringsskærm før store oplag.

Praktisk bemærkning: CometAPI fakturerer dig for de anmodninger, der sendes gennem deres gateway. Det betyder, at du får centraliserede fakturerings- og brugsrapporter for modeller, du kalder via CometAPI (praktisk for teams med flere modeller).

Prompt- og beskedprotokol (praktiske skabeloner)

Nedenfor er skabeloner, der kan kopieres/indsættes, til en robust ReAct-lignende protokol. De er chatbeskeder i OpenAI-stil (fungerer med CometAPI eller enhver OpenAI-kompatibel gateway).

Systeminstruktion (holder modellen i agenttilstand)

System: You are an agentic assistant. For each turn, follow this strict structured format in the assistant output:

1) THOUGHT: a short plan or reasoning step (internal).
2) ACTION: one of:
- CALL_TOOL(name, args_json)  // request me to run a tool
- FINAL_ANSWER: <short text>  // when finished
3) RATIONALE: one-sentence justification for the action (optional).

Only include one ACTION per assistant reply. Do not output tool results. Wait for the tool result (OBSERVATION) from the environment and then continue. Use concise tokens to reduce cost.

Assistenteksempel (hvad modellen returnerer)

Assistant -> (to server):

THOUGHT: Need latest release notes to verify API changes.
ACTION: CALL_TOOL("web_search", {"query":"MiniMax M2 release notes Oct 2025"})
RATIONALE: Confirm model behavior for agentic tool schema.

Miljø/server sender værktøjsoutput tilbage som bruger-/systembesked

System: TOOL_RESULT for CALL_TOOL("web_search", ...):
OBSERVATION: {"top_result_title":"MiniMax M2 v1.2 release notes", "snippet":"...agent APIs updated..."}

Derefter fortsætter modellen med en anden tanke/handling.

Endeligt svar til brugeren (efter verifikation)

Assistant -> (to user):

FINAL_ANSWER: "MiniMax M2 now supports function-style tool calls. To call it, use ... ."

Avancerede teknikker (øger robusthed og kapacitet)

1) Tanketræ og forgreningssøgning

I stedet for en enkelt lineær tankegang, udvid flere mulige handlinger/planer parallelt, evaluer dem (via modellen eller en scoringsfunktion), og udforsk de mest lovende grene. Brug det, når opgaverne er vanskelige (kompleks planlægning, gåder, flertrinskodning med mange muligheder).

  • Oprethold en stråle af partielle løsninger.
  • Score grene efter heuristikker: faktualitetstjek, værktøjssuccesrate eller forudsagt nytteværdi.
  • Beskær grene med lav score for at kontrollere omkostningerne.

2) Selvkonsistens og ensemble

Generer flere uafhængige løsningsspor (forskellige temperaturer, frø). Saml de endelige svar ved flertalsafstemning eller kvalitetsscoring. Reducerer hallucinationer i enkeltstående sekvenser.

3) Kalibrering af tænkning vs. handling

  • Brug lav temperatur for handlinger (deterministiske, pålidelige værktøjskald).
  • Brug højere temperatur til brainstorming/planlægning, hvis der er behov for kreativitet.
  • Adskil disse via forskellige modelkald eller eksplicit temperatur i det samme kald.

4) Kladdeblok og hukommelse

  • Behold en intern noteblok til arbejdshukommelse (fakta opdaget under værktøjskald, mellemliggende kodestykker).
  • Gem vigtige fakta i en sessionshukommelse eller vektordatabase, så fremtidige forespørgsler genbruger dem (undgår gensøgning).

5) Verifikationslag

Før udførelse af handlinger med stor indflydelse (f.eks. implementering, sletning, finansielle transaktioner), skal følgende kræves:

  • Model til at producere et kort, menneskeligt læsbart resumé,
  • Krydstjek via sekundær model eller verifikationsscript,
  • Manuel menneskelig godkendelse af destruktive handlinger.

6) Omkostnings- og latenstidsoptimeringer

  • Brug korte, strukturerede overvejelsesbeskeder (én handling pr. svar).
  • Brug streaming til lange output for at reducere den opfattede latenstid.
  • Cache deterministiske eller gentagne værktøjskaldssvar.

Eksempel på implementering (Python-pseudokode ved hjælp af CometAPI)

Denne pseudokode demonstrerer server-side orkestrering. Den antager, at CometAPI understøtter OpenAI-kompatible chat-fuldførelser.

import requests, os, json

API_KEY = os.getenv("COMETAPI_KEY")
ENDPOINT = "https://api.cometapi.com/v1/chat/completions"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}

def call_model(messages, model="minimax-m2", max_tokens=512, temperature=0.2):
    payload = {"model": model, "messages": messages, "max_tokens": max_tokens, "temperature": temperature}
    r = requests.post(ENDPOINT, headers=HEADERS, json=payload)
    return r.json()

# Initial conversation: system + user request

messages = [
    {"role":"system", "content": "You are an agentic assistant... "},
    {"role":"user", "content": "Help me update the CI job to use M2's new agent API."}
]

# Loop: ask model for thought/action, execute action, provide observation, repeat

for step in range(8):  # max 8 steps to avoid runaway loops

    resp = call_model(messages)
    assistant_text = resp
    # parse assistant_text for ACTION (e.g., CALL_TOOL)

    action = parse_action(assistant_text)
    if action == "FINAL_ANSWER":
        final = extract_final_answer(assistant_text)
        # present final to user

        print("FINAL:", final)
        break
    elif action == "CALL_TOOL":
        tool_name = action
        tool_args = action
        # Execute the tool safely (validate inputs first!)

        obs = safe_execute_tool(tool_name, tool_args)
        messages.append({"role":"system", "content": f"TOOL_RESULT: {json.dumps(obs)}"})
        # loop continues: model gets observation and responds

Hovedpunkter:

  • parse_action skal være robust og streng; stol ikke på fri parsing.
  • safe_execute_tool skal validere værktøjsargumenter (hvidliste over tilladte handlinger, parameterrensning).
  • Håndhæv et maksimalt antal skridt og timeouts.

Afsluttende tanker

MiniMax M2 repræsenterer en vigtig ny mulighed i det åbne LLM-økosystem: en MoE-baseret model, der er optimeret til kodning og agentiske arbejdsgange, udgivet med vægte og værktøjer, der giver teams mulighed for at vælge mellem hosted bekvemmelighed eller selvhostet kontrol. For mange teams er den bedste tilgang en tofaset rejse: (1) validér hurtigt på et hosted endpoint eller den gratis demo, og (2) evaluer derefter kun selvhosting, hvis du har brug for den kontrol, tilpasning eller langsigtede omkostningsprofil, der retfærdiggør driftsinvesteringen. Kombinationen af ​​et langt kontekstvindue, agent-native funktioner og åbne vægte gør M2 særligt attraktiv for udviklerværktøjer, flertrinsagenter og produktionsassistenter - forudsat at teams anvender fornuftig optimering og sikkerhedsteknik.

Sådan får du adgang til MiniMax M2 API

CometAPI er en samlet API-platform, der samler over 500 AI-modeller fra førende udbydere – såsom OpenAIs GPT-serie, Googles Gemini, Anthropics Claude, Midjourney, Suno og flere – i en enkelt, udviklervenlig grænseflade. Ved at tilbyde ensartet godkendelse, formatering af anmodninger og svarhåndtering forenkler CometAPI dramatisk integrationen af ​​AI-funktioner i dine applikationer. Uanset om du bygger chatbots, billedgeneratorer, musikkomponister eller datadrevne analysepipelines, giver CometAPI dig mulighed for at iterere hurtigere, kontrollere omkostninger og forblive leverandøruafhængig – alt imens du udnytter de seneste gennembrud på tværs af AI-økosystemet.

Udviklere kan få adgang Minimax M2 API gennem Comet API, den nyeste modelversion opdateres altid med den officielle hjemmeside. For at begynde, udforsk modellens muligheder i Legeplads og konsulter API guide for detaljerede instruktioner. Før du får adgang, skal du sørge for at være logget ind på CometAPI og have fået API-nøglen. CometAPI tilbyde en pris, der er langt lavere end den officielle pris, for at hjælpe dig med at integrere.

Klar til at gå? → Tilmeld dig CometAPI i dag !

Hvis du vil vide flere tips, guider og nyheder om AI, følg os på VKX og Discord!

SHARE THIS BLOG

500+ modeller i én API

Op til 20% rabat