Dec 13, 2025
Was ist Mistral Large 3? Eine ausführliche Erklärung
Mistral Large 3 ist die neueste “frontier”-Modellfamilie, die Mistral AI Anfang Dezember 2025 veröffentlicht hat. Es ist ein Open-Weight, produktionsorientiertes, multimodales Foundation-Modell auf Basis eines **granularen, spärlichen Mixture-of-Experts (MoE)**-Designs und soll “frontier”-Reasoning, Langkontext-Verständnis sowie Vision + Text-Fähigkeiten bereitstellen, während die Inferenz durch Sparsity und moderne Quantisierung praktikabel bleibt. Mistral Large 3 verfügt über **675 Milliarden Gesamtparameter** mit **~41 Milliarden aktiven Parametern** bei der Inferenz und ein **256k Token**-Kontextfenster in der Standardkonfiguration — eine Kombination, die darauf ausgelegt ist, sowohl Leistungsfähigkeit als auch Skalierung voranzutreiben, ohne jede Inferenz zu zwingen, alle Parameter anzusprechen.Dec 10, 2025
So führen Sie Mistral 3 lokal aus
Mistral 3 ist das Hauptrelease der Modellfamilie von Mistral AI Ende 2025. Es bietet eine Mischung aus kompakten, schnellen Modellen, die für lokale/Edge-Bereitstellung ausgelegt sind, und einem sehr großen Sparse-Flaggschiff, das den Stand der Technik bei Skalierung und Kontextlänge weiter vorantreibt. Dieser Artikel erklärt, was Mistral 3 ist, wie es aufgebaut ist, warum Sie es lokal ausführen möchten, und drei praktische Möglichkeiten, es auf Ihrem Computer oder privaten Server zu betreiben — von der „Click-to-run“-Bequemlichkeit von Ollama über GPU-Serving im Produktionsbetrieb mit vLLM/TGI bis hin zu CPU-Inferenz auf winzigen Geräten mit GGUF + llama.cpp.