Mistral Small 4

Mar 23, 2026
Mistral Small 4

Hvordan kjøre Mistral Small 4 lokalt

Mistral Small 4 er en nylig lansert multimodal AI-modell med åpne vekter fra Mistral AI (mars 2026) som kombinerer resonnering, koding og synsevner i én enkelt arkitektur. Den kan distribueres lokalt ved hjelp av rammeverk som Ollama, vLLM eller llama.cpp (kvantisert), og krever GPU-er (≥24 GB VRAM anbefales) eller kraftige CPU-er med kvantisering. Den viktigste fordelen er høy ytelse til betydelig lavere inferenskostnad og latenstid, noe som gjør den ideell for AI-applikasjoner på enheten.