ModellerPriserBedrift

Mistral Small 4 Blogg

Mistral Small 4 Blogg

Hvordan kjøre Mistral Small 4 lokalt
Mar 23, 2026
Mistral Small 4

Hvordan kjøre Mistral Small 4 lokalt

Mistral Small 4 er en nylig lansert multimodal AI-modell med åpne vekter fra Mistral AI (mars 2026) som kombinerer resonnering, koding og synsevner i én enkelt arkitektur. Den kan distribueres lokalt ved hjelp av rammeverk som Ollama, vLLM eller llama.cpp (kvantisert), og krever GPU-er (≥24 GB VRAM anbefales) eller kraftige CPU-er med kvantisering. Den viktigste fordelen er høy ytelse til betydelig lavere inferenskostnad og latenstid, noe som gjør den ideell for AI-applikasjoner på enheten.
500+ AI-modell API, Alt I Én API. Bare I CometAPI
Modeller API
Utvikler
HurtigstartDokumentasjonAPI Dashbord
Selskap
Om ossBedrift
Ressurser
AI-modellerBloggEndringsloggStøtte
TjenestevilkårPersonvernerklæring
© 2026 CometAPI · All rights reserved