MiniMax, de Chinese AI-startup, heeft de gewichten en tools voor MiniMax M2, het nieuwste grote taalmodel dat speciaal is ontworpen voor codeerworkflows en het gebruik van agentische tools. Het bedrijf zegt dat de M2 is gebouwd als een efficiënt 'mix-of-experts'-ontwerp (MoE) dat hoogwaardige codering en agentprestaties levert tegen een fractie van de kosten van vergelijkbare bedrijfseigen modellen. Ik zal uitleggen waarom de MiniMax M2 de koning is op het gebied van kosteneffectiviteit, gezien de functies, benchmarkprestaties, architectuur en kosten.
Wat is MiniMax M2?
MiniMax M2 is het nieuwste open-source grote taalmodel van MiniMax, dat primair bedoeld is voor codering, meerstaps agentworkflows en toolaanroepenHet model maakt gebruik van een Mixture-of-Experts-architectuur: het heeft een zeer grote totaal parametervoetafdruk, maar slechts een bescheiden aantal parameters is geactiveerd per token tijdens het redeneren — een ontwerp dat de kosten en latentie van het redeneren vermindert, terwijl het vermogen om sterk te redeneren en te coderen behouden blijft.
Belangrijkste cijfers (zoals vrijgegeven)
- Totaal parameterbudget: ~230 miljard (totaal).
- Geactiveerde / effectieve parameters per token: ~10 miljard (geactiveerd).
- Contextvenster (gerapporteerd): tot ~204,800 tokens
- Licentie: MIT (open source gewichten).
- Claims over kosten en snelheid: De kosten per token bedragen slechts 8% van Anthropic Claude Sonnet en de snelheid is ongeveer twee keer zo hoog.
Wat zijn de belangrijkste kenmerken van de MiniMax M2?
Agentisch/tool-georiënteerd gedrag
MiniMax M2 Wordt geleverd met expliciete ondersteuning voor toolaanroepen, gestructureerde prompts en interleaved reasoning → action → verificatiepatronen, waardoor het eenvoudig is om autonome agents te bouwen die externe API's aanroepen, code uitvoeren of terminals bedienen. Verschillende integratierecepten richten zich op agent-runtimes en vLLM/accelerate-stacks.
Geoptimaliseerd voor codering en taken met meerdere bestanden
Benchmarks gerapporteerd over Hugging Face en analyses van derden laten sterke prestaties zien in ontwikkelaarsgerichte testsuites (unittests, terminalsimulatie, multi-file synthese), waarbij M2 hoog scoort ten opzichte van andere open en gesloten modellen. Dit komt overeen met de nadruk die MiniMax legt op ontwikkelaarstools en programmeerassistenten.
Sparse Mixture-of-Experts (MoE) efficiëntie
In plaats van één enkele dichte parameterset, MiniMax M2 gebruikt een spaarzame mix van experts routeringsstrategie, zodat slechts een subset van de volledige parameterbank per token wordt geactiveerd. Dit levert een groot totaal aantal parameters op, maar een veel kleiner geactiveerd parametervoetafdruk tijdens inferentie, wat de kosten- en latentie-efficiëntie voor veel workloads verbetert.
Hoe werkt MiniMax M2 intern?
Hoogwaardige architectuur
Volgens de technische openbaarmakingen van MiniMax en onafhankelijke rapportage, MiniMax M2 wordt geïmplementeerd als een spaarzame MoE-transformator met de volgende, breed gerapporteerde, ontwerpbeslissingen:
- Een heel groot totaal parametertelling (in de pers gerapporteerd als in de orde van honderden miljarden), met slechts een subset van experts per token geactiveerd (De pers noemt voorbeelden zoals 230B in totaal met ~10B actief per inferentie in eerdere rapporten). Dit is de klassieke afweging van het ministerie van Onderwijs: schaalcapaciteit zonder lineaire inferentiekosten.
- Routing: routering van top-k-experts (Top-2 of Top-K) waarbij elk token naar een klein aantal experts wordt verzonden, waardoor de rekenlast spaarzaam en voorspelbaar is.
- Aandacht- en positiecodering: hybride aandachtspatronen (bijv. een mix van dichte en efficiënte aandachtskernen) en moderne roterende of RoPE-stijl positionele coderingen worden genoemd in de documentatie van het communitymodel en de Hugging Face-modelkaart. Deze keuzes verbeteren het gedrag in lange contexten, wat belangrijk is voor multi-file codering en agentgeheugen.
Waarom sparse MoE agent-workflows helpt
Agentische workflows vereisen doorgaans een combinatie van redeneren, codegeneratie, toolorkestratie en stateful planning. Met MoE, MiniMax M2 kan zich veel gespecialiseerde submodules van experts veroorloven (bijvoorbeeld experts die beter zijn in code, experts die zijn afgestemd op toolopmaak, experts in het ophalen van feiten) en tegelijkertijd alleen de experts activeren die voor elk token nodig zijn. Die specialisatie verbetert zowel de doorvoer als de correctheid van samengestelde taken, terwijl de inferentiekosten worden verlaagd in vergelijking met een uniform groot, dicht model.
Trainings- en fine-tuningnotities (wat MiniMax publiceerde)
MiniMax noemt een combinatie van code, instructie-afstemming, webtekst en agent-lus-datasets als voorbeeld van de instructie- en toolvaardigheid van M2.
Waarom MoE voor agenten en code?
Met MoE kunt u de modelcapaciteit vergroten (voor betere redenering en multimodale mogelijkheden) zonder de inferentie-FLOP's voor elk token lineair te verhogen. Voor agents en coderingsassistenten – die vaak veel korte, interactieve query's uitvoeren en externe tools aanroepen – houdt de selectieve activering van MoE de latentie en cloudkosten binnen de perken, terwijl de capaciteitsvoordelen van een zeer groot model behouden blijven.
Benchmarkprestaties
Volgens onafhankelijke evaluaties door Artificial Analysis, een externe benchmark- en onderzoeksorganisatie voor generatieve AI-modellen, staat M2 momenteel op de eerste plaats van alle open-source gewogen systemen wereldwijd in de "Intelligence Index", een uitgebreide meting van de prestaties op het gebied van redeneren, coderen en taakuitvoering.

De modelkaart van MiniMax toont vergelijkende resultaten over codering / agentisch benchmarksuites (SWE-bench, Terminal-Bench, BrowseComp, GAIA, τ²-Bench, enz.). In deze gepubliceerde tabellen laat M2 sterke scores zien op het gebied van codering en multi-step tooltaken, en MiniMax benadrukt de scores voor concurrentie-informatie/agentische samenstelling ten opzichte van andere open modellen.
Met deze scores zit het op of nabij het niveau van toonaangevende propriëtaire systemen zoals GPT-5 (denkend) en Claude Sonnet 4.5. Daarmee is MiniMax-M2 tot nu toe het best presterende open model op het gebied van real-world agent- en tool-aanroeptaken.

MiniMax-M2 behaalt top- of bijna-topprestaties in veel categorieën:
- SWE-bench geverifieerd: 69.4 — dicht bij GPT-5's 74.9
- ArtifactsBench: 66.8 — boven Claude Sonnet 4.5 en DeepSeek-V3.2
- τ²-Bench: 77.2 — nadert de 80.1 van GPT-5
- GAIA (alleen tekst): 75.7 — overtreft DeepSeek-V3.2
- BrowseComp: 44.0 — aanzienlijk sterker dan andere open modellen
- FinSearchComp-global: 65.5 — beste onder geteste open-gewichtsystemen
Kosten en prijzen
MiniMax vermeldt openbaar een zeer concurrerende API-prijs van $0.30 per 1,000,000 invoertokens en $ 1.20 per 1,000,000 output-tokensHet bedrijf rapporteert ook een inferentie-doorvoer (TPS)-cijfer op zijn gehoste eindpunt van ~100 tokens/sec (en beweert dat ze het aan het verbeteren zijn). CometAPI biedt 20% korting op de officiële prijs voor toegang tot de MiniMax M2 API.
Snelle interpretatie
- Input-tokens zijn per token extreem goedkoop vergeleken met veel commerciële modellen. Output-tokens zijn duurder, maar nog steeds laag vergeleken met veel gesloten alternatieven.
- De doorvoer (tokens/sec.) en latentie zijn sterk afhankelijk van de implementatiekeuzes (gehost versus zelfgehost, GPU-type, batching, kwantificering). Gebruik de gepubliceerde TPS alleen als basis voor de planning van gehoste API's.
Wat zijn de beste use cases voor MiniMax M2?
1) End-to-end ontwikkelaarsassistenten (code schrijven → uitvoeren → repareren → verifiëren)
MiniMax M2 is speciaal ontwikkeld voor het bewerken van meerdere bestanden, compile/run/fix-loops en CI/IDE-automatisering. Hierbij moet het model grote codebases of lange terminaltranscripten onthouden en toolaanroepen (build, test, lint, git) orkestreren. Benchmarks en vroege communitytests scoren hoog in de categorie codeer-/agent-suites.
Typische stroom: repo ophalen → tests uitvoeren in sandbox → fouten analyseren → patch produceren → tests opnieuw uitvoeren → PR openen als deze groen is.
2) Multi-step agents en RPA (tools + geheugen)
Agentische applicaties die planning, tool-aanroep en herstel nodig hebben (webbrowsen, terminal, database, aangepaste API's) profiteren van de lange context en gestructureerde functie-/tool-aanroep. Dankzij de lange contextfunctionaliteit van M2 kunt u plannen, logs en status in het geheugen bewaren zonder agressieve externe opvraging.
3) Redeneren in lange documenten en klantenondersteuning (handboeken, handleidingen)
Omdat M2 zeer grote contexten ondersteunt, kunt u complete producthandleidingen, playbooks of lange gebruikersgespreksgeschiedenissen invoeren zonder al te veel chunking. Dit is ideaal voor contextrijke ondersteuningsautomatisering, beleidsredeneringen en nalevingscontroles.
4) Onderzoek en experimenten (open gewichten, permissief gebruik)
Met open gewichten op Hugging Face kun je experimenten uitvoeren (custom finetuning, MoE-onderzoek, nieuwe routeringsstrategieën of veiligheidsmechanismen) lokaal of op privéclusters. Dat maakt M2 aantrekkelijk voor laboratoria en teams die volledige controle willen.
Praktische aanbevelingen voor engineers en productteams
Als u snel wilt experimenteren: Gebruik de MiniMax cloud API (compatibel met Anthropic/OpenAI). Deze elimineert lokale infrastructuurproblemen en geeft u direct toegang tot toolcalling en long-contextfuncties.
Als u behoefte heeft aan controle en kostenoptimalisatie: Download de gewichten van Hugging Face en serveer met vLLM of SGLang. Verwacht een investering in engineering voor MoE-sharding en zorgvuldige afstemming van de inferentie. Test geheugen, kosten en latentie tegen uw werkelijke workload (multi-turn agents en multi-file codetaken).
Testen en veiligheid: Voer je eigen red-teamtests, veiligheidsfilters en toolvalidatie uit. Open gewichten versnellen onderzoek, maar zorgen er ook voor dat kwaadwillenden snel kunnen itereren; bouw detectoren en voer waar nodig menselijke controles uit.
Conclusie
MiniMax M2 vertegenwoordigt een belangrijk moment in het open-source LLM-ecosysteem: een groot, agent-centrisch, permissief gelicentieerd model dat prioriteit geeft aan codering en toolgebruik, terwijl het ernaar streeft de inferentiekosten haalbaar te houden door middel van sparse MoE-routing. Voor organisaties die ontwikkelaarstools, autonome agents of onderzoeksteams bouwen die toegang nodig hebben tot gewichten voor finetuning, biedt M2 een aantrekkelijke, direct bruikbare optie – mits het team bereid is de complexiteit van de MoE-implementatie te beheersen.
Hoe krijg je toegang tot de MiniMax M2 API?
CometAPI is een uniform API-platform dat meer dan 500 AI-modellen van toonaangevende aanbieders – zoals de GPT-serie van OpenAI, Gemini van Google, Claude, Midjourney en Suno van Anthropic – samenvoegt in één, gebruiksvriendelijke interface voor ontwikkelaars. Door consistente authenticatie, aanvraagopmaak en responsverwerking te bieden, vereenvoudigt CometAPI de integratie van AI-mogelijkheden in uw applicaties aanzienlijk. Of u nu chatbots, beeldgenerators, muziekcomponisten of datagestuurde analysepipelines bouwt, met CometAPI kunt u sneller itereren, kosten beheersen en leveranciersonafhankelijk blijven – en tegelijkertijd profiteren van de nieuwste doorbraken in het AI-ecosysteem.
Ontwikkelaars hebben toegang tot Minimax M2 API via CometAPI, de nieuwste modelversie wordt altijd bijgewerkt met de officiële website. Om te beginnen, verken de mogelijkheden van het model in de Speeltuin en raadpleeg de API-gids voor gedetailleerde instructies. Zorg ervoor dat u bent ingelogd op CometAPI en de API-sleutel hebt verkregen voordat u toegang krijgt. KomeetAPI bieden een prijs die veel lager is dan de officiële prijs om u te helpen integreren.
Klaar om te gaan?→ Meld u vandaag nog aan voor CometAPI !
Als u meer tips, handleidingen en nieuws over AI wilt weten, volg ons dan op VK, X en Discord!
