Mistral 3: modellfamilie, arkitektur, ytelsestester og mer

CometAPI
AnnaDec 7, 2025
Mistral 3: modellfamilie, arkitektur, ytelsestester og mer

Mistral 3 er den nyeste, ambisiøse utgivelsen fra Mistral AI — en komplett familie av åpenvektsmodeller som skyver på flere fronter samtidig: sparse-ekspert-skalering i flaggskipstørrelse, kompakte tette varianter for edge- og lokal utrulling, langkontekst multimodalitet og permissiv åpen lisensiering som oppmuntrer til bruk i virkeligheten og forskning.

Hva er Mistral 3?

Mistral 3 er en familie av åpenvekts multimodale språkmodeller lansert av Mistral AI sent i 2025. Familien inkluderer tre tette (ikke-sparse) kompakte modeller — Ministral 3 med 3B, 8B og 14B parametere — og et flaggskip, Mistral Large 3, en sparse Mixture-of-Experts (MoE)-modell med 675B totale parametere og rundt 41B aktive parametere under inferens. Alle modellene ble utgitt under Apache 2.0-lisensen og er tilgjengelige i komprimerte formater for å støtte bred distribusjon og lokal utrulling. Nøkkelfunksjoner Mistral fremhever inkluderer multimodale kapabiliteter, svært lange kontekstvinduer (Large: opptil 256K tokens) og optimaliseringer for moderne akseleratorer.

Mistral 3 er viktig av tre grunner:

  1. Spennvidde — familien dekker skalaer fra svært små til frontier (3B / 8B / 14B tette Ministral-varianter og en 675B-parameter MoE), som muliggjør konsistente forsknings- og produksjonsarbeidsflyter på tvers av kost-/ytelsesavveininger.
  2. Åpenhet — Mistral publiserte modeller og vekter under Apache-2.0-lisensen og ga deployerbare artefakter på plattformer som Hugging Face for å akselerere adopsjon.
  3. Ingeniørfokus — Large 3-modellen tar i bruk en granulær MoE-arkitektur med svært stort totalt antall parametere, men et mye mindre aktivt parametersett under inferens, som sikter mot å levere frontier-kapasitet med forbedret gjennomstrømning og kosteffektivitet for visse arbeidslaster.

Oversikt over Mistral 3-familien

Ministral 3 — 14B (Ministral 3 14B)

Hva det er: Den største tette (ikke-MoE) modellen i den kompakte/edge “Ministral”-linjen: en høykvalitets multimodal modell med 14 milliarder parametere, tilbudt i Base / Instruct / Reasoning-varianter og finjustert for tekst + bildeforståelse og instruksjonsfølging.

Når du bør velge den: Du ønsker tilnærmet toppytelse fra en tett modell uten MoE-kompleksitet, og du vil ha sterk instruksjons-/chat-ytelse og visjonsegenskaper i én modell. God for chatagenter, multimodale assistenter, kodegenerering og mer krevende on-device/edge-arbeidslaster som kan bære en større modell.

Ministral 3 — 8B (Ministral 3 8B)

Hva det er: En balansert, effektiv tett modell med 8 milliarder parametere i Ministral 3-familien. Tilgjengelig i Base / Instruct / Reasoning-varianter og støtter multimodale inndata. Posisjonert som “sweet spot” for mange produksjonsbrukstilfeller.

Når du bør velge den: Du trenger god genereringskvalitet og resonneringsevne, men ønsker betydelig lavere latens og VRAM-avtrykk enn 14B. Flott for chatboter, assistenter på enheten, nettjenester med begrensede GPU-budsjetter og innebygd bruk med kvantisering.

Ministral 3 — 3B (Ministral 3 3B)

Hva det er: Den minste tette modellen i Ministral 3-familien: en multimodal modell med 3 milliarder parametere (Base / Instruct / Reasoning). Designet for ekstremt lavt minne-/latensbehov samtidig som moderne multimodale funksjoner beholdes.

Når du bør velge den: Når du trenger inferens på enheten, svært lav latens, eller å kjøre mange samtidige lette agenter til lav kost — f.eks. mobilapper, roboter, droner eller lokale personvernsensitive utrullinger. God for chat, oppsummering, enkle kodeoppgaver og raske visjon+tekst-oppgaver.

Mistral Small 3 — 24B(Mistral Small 3)

Hva det er: En latensoptimalisert tett modell med 24 milliarder parametere, utgitt av Mistral som en del av Mistral 3-familien. Den er designet for å levere høy gjennomstrømning på én GPU og sterk genereringskvalitet, samtidig som den er enkel å serve (ingen MoE-kompleksitet).

Når du bør velge den: Du vil ha den beste avveiningen for én GPU (eller én node): mye høyere kvalitet enn 14B/8B på mange benchmarker, men fortsatt ganske enkel å distribuere. God for produksjonsklare konversasjonssystemer, assistenter med høyere kvalitet og applikasjoner som trenger sterkere resonnering uten MoE-driftskompleksitet.

Mistral Large 3 — MoE (Mixture-of-Experts)

Hva det er: Flaggskipet, en sparse Mixture-of-Experts (MoE)-modell i Mistral 3-familien: ≈675B totale parametere med ~41B aktive parametere per token (dvs. bare et delsett av eksperter aktiveres for hver token). Designet for frontier-resonnering, svært lange kontekster og topp tverrdomene-ytelse. Den er åpenvekt (Apache-2.0).

Når du bør velge den: Bruk når du trenger best mulig resonnering, svært langkontekstforståelse (Large 3 støtter svært lange vinduer — leverandørsider oppgir opptil 256k tokens for langkontekstbruk), eller når du bygger høyverdige bedriftsløsninger som kan forsvare MoE-driftskompleksitet og infrastruktur.

Sammenligningstabell

ModellStyrkerBegrensninger og merknader
Ministral 3 14BBeste balanse mellom kvalitet og modellstørrelse i den kompakte familien; matcher ofte eller nærmer seg 24B-nivå for én-GPU-latens i optimaliserte stakker. Sterk resonnering og multimodal forståelse (ved bruk av Instruct / Reasoning-variantene).Større minneavtrykk enn 8B/3B — kan trenge kvantisering eller optimaliserte kjerner for én-GPU forbrukerutrulling. Hvis du trenger absolutt lavest latensavtrykk, vurder 8B eller 3B.
Ministral 3 8BSterk kost-/latensavveining: mye lavere minne- og beregningskrav enn 14B, samtidig som sterk multimodal og resonneringsytelse beholdes (særlig i Reasoning-varianten). Enkel å kjøre med optimaliserte runtime-miljøer og kvantisering.Ikke like sterk på de aller vanskeligste resonnerings- eller lengste kontekstopgavene som 14B eller 24B Small, men ofte “god nok” for produksjon til langt lavere kost. Bruk Reasoning-varianten for matematikk/koding/STEM-oppgaver.
Ministral 3 3BMinst avtrykk, raskest å kjøre på begrenset maskinvare, lettest å kvantisere og distribuere lokalt. Støtter fortsatt bildeforståelse og instruksjonsfølging i sine finjusterte varianter.Lavere rå genereringskvalitet på svært lange eller veldig komplekse resonneringsoppgaver sammenlignet med 8B/14B/24B/large MoE. Utmerket for edge eller horisontal skalering, men velg en større modell for høyeste nøyaktighetsbehov.
Mistral Small 3Høy MMLU-lignende benchmarkytelse i sin klasse, latensoptimalisert arkitektur og kjerner, og utgitt under Apache-2.0 for direkte bruk. Bredt støttet av skyleverandører og optimaliserte runtime-miljøer (NVIDIA, osv.).Større VRAM/beregning enn Ministral 14B/8B/3B — kan kreve kraftigere enkelt-GPU-er eller multi-GPU-oppsett hvis du sikter mot store kontekstvinduer eller høy samtidighet. Men enklere å hoste enn MoE-flaggskipet.
Mistral Large 3Mye høyere effektiv kapasitet per token enn en tett modell til sammenlignbar inferenskost (fordi bare aktive eksperter brukes), muliggjør suveren resonnering og langkontekstadferd.Driftskompleksitet: MoE krever ekspert-sharding, ruting, ekstra minne og nettverks-I/O — mer komplekst og kostbart å kjøre i skala enn en tett modell.

Mistral 3-benchmarker — hvordan presterer den?

Benchmarker er ikke perfekte, men nyttige målestokker. Flere uavhengige og tredjeparts evalueringer har dukket opp siden lanseringen; bildet er nyansert: Mistral Large 3 presser eller matcher topp åpne modeller på mange standard ledertabeller (særlig ikke-resonnerings- og multimodale oppgaver), mens Ministral-serien viser sterk pris/ytelse for mindre skala.

Generell NLP og resonnering

Sterk på tvers av resonnerings- og langkontekstopgaver: Mistral Large 3 rapporterer konkurransedyktige (ofte blant de beste åpne) resultater på resonneringsdatasett (AIME, avanserte matematikk-/kode-resonneringssett) og generell kunnskapsbenchmarking som MMLU i fellesskapssammenligninger. Uavhengige tverr-oppgaveartikler og ledertabeller som inkluderte Large 3, viser at den presterer på eller nær toppen av åpenvektsmodeller.

Kode og programvareutvikling

Åpne kodeledertabeller: tidlige LMArena- og SWE-Bench-innlegg indikerer at Mistral Large 3 er en topputøver blant åpne modeller for kodeoppgaver — noen fellesskapsrangeringer plasserer den som #1 åpen kilde på visse koderangeringer. Når det er sagt, leder lukkede modeller (OpenAI, xAI, Google) ofte fortsatt helt i toppen for kodekapabiliteter i proprietære ledertabeller.

På LMArena-ledertabellen rangerer Mistral Large 3:

  • 2. blant åpne ikke-inferensmodeller;
    1. blant åpne modeller totalt.
ElementMistral 3 14B InstructMistral 3 8B InstructMistral 3 3B Instruct
ModellposisjoneringHøyytelses edge-flaggskip (enterprise-grade)Balansert og energieffektiv hovedstrømsmodellUltralett lokal/edge-modell
Totalt antall parametere≈ 14B (13.5B LM + 0.4B Vision)≈ 8.8B (8.4B LM + 0.4B Vision)≈ 3.8B (3.4B LM + 0.4B Vision)
VisjonsegenskaperHøyoppløst bildeforståelse, dokumentanalyseMiddelsoppløst bilde-Q&ALettvekts bildeskildring
AgentkapabiliteterFunction Calling + JSON-utdataFunction Calling + JSON-utdataFunction Calling + JSON-utdata
Kontekst-resonneringsevne⭐⭐⭐⭐⭐ (Sterk)⭐⭐⭐⭐ (Middels sterk)⭐⭐⭐ (Lett)
Matematisk resonnering (AIME25)0.8500.7870.721
Multimodal ytelse (MMMBench)8.498.087.83
Instruksjonsfølging (WildBench)68.566.856.8
Kunnskapsforståelse (MMLU)0.7940.7610.652
Minnekrav (FP8)≈ 24 GB≈ 12 GB≈ 8 GB

Slik får du tilgang til / prøver Mistral 3 (trinn for trinn)

1)Download and run from Hugging Face (weights + model cards)

  • Besøk Mistral-organisasjonen og den spesifikke modellsiden (f.eks. mistralai/Mistral-Large-3-675B-Instruct-2512 eller Ministral 3-modellsidene) og følg “Files & versions” / model card for anbefalte formater (NVFP4/FP8/FP16).
  • Typisk arbeidsflyt:
    1. pip install transformers accelerate torch (eller bruk et runtime som vLLM).
    2. Kopier nøyaktig modell-ID fra Hugging Face (modellsider inneholder den offisielle ID-en og anbefalte formater).
    3. Eksempel (for en kompakt Ministral-modell — bruk den nøyaktige HF-ID-en for ekte kjøringer):
from transformers import AutoTokenizer, AutoModelForCausalLM  
tokenizer = AutoTokenizer.from_pretrained("mistralai/<model-id>")  
model = AutoModelForCausalLM.from_pretrained("mistralai/<model-id>",  
                                             device_map="auto",  
                                             torch_dtype="auto")
  1. For Large 3 (MoE), foretrekk leverandørruntime eller HF-inference-endepunkter — direkte lasting med transformers er kanskje ikke optimalt for MoE-distribusjon.

2) Bruk et administrert skyendepunkt (raskest, ingen infrastruktur)

  • Amazon Bedrock: Mistral Large 3 og Ministral 3 ble lagt til i Bedrock — du kan opprette serverløse endepunkter via Bedrock og kalle dem via Bedrock API/SDK. Godt for produksjonsapper uten drift.
  • IBM watsonx og Azure Foundry: annonsert som lanseringspartnere — bedriftsklasse, hostet tilgang og samsvarsfunksjoner.
  • Mistral AI Studio: Mistrals egen hostede løsning for å eksperimentere med modellene deres.

3) Bruk leverandøroptimaliserte stakker (hvis du self-hoster)

  • NVIDIA: bruk NVIDIAs optimaliserte runtime-miljøer og FP8/NVFP4-varianter for bedre gjennomstrømning og kostnad (NVIDIA publiserte en utviklerblogg med optimaliseringer for Mistral 3). Hvis du planlegger å hoste Large 3, bruk GB200/H200-klasse maskinvare og følg NVIDIAs veiledning.
  • vLLM / spesialiserte MoE-runtimer: mange bruker vLLM eller MoE-bevisste inferensstakker for lavere latens og bedre batching.

4) Tredjepartsverter / API-er

Leverandører som Modal, CometAPI og andre lar deg kalle modellen via enklere API-er eller pay-as-you-go-endepunkter — nyttig for prototyping uten lock-in til skyleverandør.

begrensninger, risikoer og beste praksis

Kjente begrensninger og feilmodi

  • Benchmarker er ikke alt: rapporterte plasseringer på ledertabeller varierer; oppgavespesifikk evaluering er kritisk.
  • Varians i instruksjonstuning: ulike instruksjonstunede varianter (base / instruct / reasoning) kan gi forskjellige atferder; velg riktig variant.
  • Distribusjonskompleksitet for MoE: mixture-of-experts-modeller kan være mer komplekse å distribuere og tune (ruting, minnelayout, batching). Bruk leverandøranbefalte runtime-miljøer og kvantiserte formater der det er mulig.

Kostnads- og effektivitetsvurderinger

  • Ministral 3 (3–14B): Lav kost per token, mulig med rimelige GPU-er eller mange on-prem-installasjoner. God for innbygging i klientapper, mobil-backends eller tjenester med strenge latensbudsjetter.
  • Mistral Large 3: Høyere absolutte ressursbehov, men sparse aktivering reduserer aktiv beregning per token sammenlignet med en tett 675B-modell; leverandøroptimaliserte stakker (NVIDIA) kan materiell redusere latens og kost. Hvis du trenger resonnerings-/langkontekstfordelene, blir Large 3 kostnadseffektiv relativt til sammenlignbare tette modeller som ville trenge langt mer inferensberegning for å matche kapasitet.

Sikkerhet og styring

Åpen lisensiering + virksomhetskontroller: Apache 2.0-vekter muliggjør bred bruk; virksomheter bør likevel legge på sikkerhet (filtre, menneske-i-løkken-kontroller, proveniens) og gjennomføre red teaming for domenespesifikke misbruks-scenarier. Partnerskap og nyheter viser at Mistral jobber med partnere rundt ansvarlige utrullinger.

Beste praksis

  • Benchmark på dine data: repliker evalueringer med dine prompt, temperaturinnstillinger og etterbehandling.
  • Bruk flerlags inferens: rut billige/rask oppgaver til tette Ministral-modeller og reserver Large 3 for det tunge løftet.
  • Utnytt optimaliserte formater: bruk leverandørleverte formater og kjerner (NVFP4/Triton) for forbedret latens og redusert minneavtrykk.

Endelig vurdering: hvor passer Mistral 3 inn i 2025?

Mistral 3 er en strategisk viktig utgivelse for åpne og bedriftsnære AI-økosystemer. Ved å kombinere en permissivt lisensiert, distribusjonsvennlig kompakt familie (Ministral 3) med et høykapasitets sparse flaggskip (Mistral Large 3), har Mistral levert en verktøykasse som spenner fra hobbyist-utvikling lokalt til krevende bedrifts-agentscenarier. Leverandøroptimaliseringer (særlig med NVIDIA) og åpne formater betyr at både ytelse og kost kan tunes per arbeidslast. Tidlige benchmarker viser at Mistral Large 3 konkurrerer i toppen av åpne modell-ledertabeller, mens Ministral-variantene utmerker seg med kosteffektivitet i praktiske oppgaver.

Hvis prioriteringene dine er åpen lisensiering, muligheten til å kjøre modeller lokalt/frakoblet, og konkurransedyktig resonneringsytelse ved bot

For å komme i gang, utforsk flere modellers kapabiliteter (slik som Gemini 3 Pro) i Playground og se API guide for detaljerte instruksjoner. Før tilgang, sørg for at du er logget inn på CometAPI og har fått en API-nøkkel. CometAPI tilbyr en pris langt under den offisielle prisen for å hjelpe deg å integrere.

Klar til å starte?→ Registrer deg for CometAPI i dag !

Les mer

500+ modeller i ett API

Opptil 20 % rabatt