Mistral Small 4
Mar 23, 2026
Mistral Small 4
Sådan kører du Mistral Small 4 lokalt
Mistral Small 4 er en nyligt udgivet multimodal AI-model med åbne vægte fra Mistral AI (marts 2026), som kombinerer ræsonnering, kodning og synsfunktioner i én samlet arkitektur. Den kan implementeres lokalt ved hjælp af frameworks som Ollama, vLLM eller llama.cpp (kvantiseret) og kræver GPU'er (≥24 GB VRAM anbefales) eller avancerede CPU'er med kvantisering. Dens vigtigste fordel er høj ydeevne til markant lavere inferensomkostninger og latenstid, hvilket gør den ideel til AI-applikationer på enheden.