Mistral Small 4

Mar 23, 2026
Mistral Small 4

Mistral Small 4 lokal ausführen

Mistral Small 4 ist ein neu veröffentlichtes multimodales KI-Modell mit offenen Gewichten von Mistral AI (März 2026), das Schlussfolgern, Programmierung und Bildverarbeitung in einer einzigen Architektur vereint. Es kann lokal mit Frameworks wie Ollama, vLLM oder llama.cpp (quantisiert) bereitgestellt werden und erfordert GPUs (≥24 GB VRAM empfohlen) oder leistungsstarke CPUs mit Quantisierung. Sein entscheidender Vorteil ist die hohe Leistung bei deutlich geringeren Inferenzkosten und geringerer Latenz, was es ideal für On-Device-KI-Anwendungen macht.