Modellen
Prijzen
Onderneming
Bronnen
Gratis beginnen
Gratis beginnen
mistral Blog
mistral Blog
Mar 23, 2026
Mistral Small 4
Kort antwoord: - Mistral Small 4 is een gehost, gesloten model. De gewichten zijn niet publiek, dus je kunt het niet volledig offline/lokaal draaien. Je kunt het wel lokaal aanroepen via de Mistral API. - Wil je echt lokaal/offline draaien, gebruik dan een open‑weights alternatief uit de Mistral‑familie (bijv. Mistral‑7B‑Instruct v0.3, Mixtral 8x7B/8x22B, Mistral‑Nemo, Ministral‑3B/8B). Optie A — Lokaal aanroepen via de Mistral API (niet offline): 1) Installeer SDK - Python: pip install mistralai 2) Stel je API‑sleutel in - macOS/Linux: export MISTRAL_API_KEY=... - Windows (Powershell): setx MISTRAL_API_KEY "...” 3) Roep het model aan - Modelnaam: mistral-small-latest (Small 4 achter deze alias) - Voorbeeld (Python, schets): from mistralai import Mistral; client = Mistral(api_key=...); client.chat.complete(model="mistral-small-latest", messages=[{"role":"user","content":"..."}]) Optie B — Volledig lokaal (open gewichten) met vergelijkbare Mistral‑modellen: 1) Snel en eenvoudig: Ollama - Installeer Ollama - Trek een model: - Mistral‑7B‑Instruct: ollama pull mistral - Mixtral 8x7B‑Instruct: ollama pull mixtral - Start inferentie: - ollama run mistral - of met prompt: ollama run mistral "Schrijf een samenvatting..." - Opmerking: Ollama gebruikt geoptimaliseerde quantized builds; draait op CPU of GPU. 2) Prestaties/serving: vLLM (OpenAI‑compatible server) - Installatie: pip install vllm - Start server (voorbeeld Mistral‑7B‑Instruct v0.3): - python -m vllm.entrypoints.openai.api_server --model mistralai/Mistral-7B-Instruct-v0.3 --dtype float16 - Gebruik via OpenAI‑compatibele clients (endpoint: http://localhost:8000/v1, modelnaam gelijk aan je geladen model). 3) Productiegericht: Text Generation Inference (Hugging Face TGI) - Start met Docker: - docker run --gpus all -p 8080:80 -e MODEL_ID=mistralai/Mistral-7B-Instruct-v0.3 ghcr.io/huggingface/text-generation-inference:latest - Aanroepen: - curl -X POST http://localhost:8080/generate -d '{"inputs":"Hallo","parameters":{"max_new_tokens":128}}' -H "Content-Type: application/json" 4) Lichtgewicht/CPU‑vriendelijk: llama.cpp (GGUF) - Download een GGUF‑quant van het gewenste open model (bijv. Mistral‑7B‑Instruct Q4_K_M) - Run: - ./main -m ./models/mistral-7b-instruct.Q4_K_M.gguf -p "Schrijf een korte samenvatting..." Hardwareindicaties (ruw, afhankelijk van quantisatie en contextlengte): - Mistral‑7B: - FP16 op GPU: ~12–16 GB VRAM - 4‑bit quant (GGUF/GPTQ/AWQ): 4–8 GB VRAM of 8–16 GB RAM op CPU - Mixtral 8x7B: - Meer geheugen (24–48 GB VRAM); quantisatie of CPU mogelijk maar trager Fijnslijpen/fine‑tuning (alleen open gewichten): - Gebruik LoRA/QLoRA (PEFT) op open Mistral‑modellen; houd contextlengte en dtype/quantisatie in de gaten. Belangrijk: - Wil je specifiek Mistral Small 4 on‑prem/offline draaien, dan is dat alleen mogelijk via een zakelijke on‑prem/BYOC‑licentie bij Mistral. Zonder die licentie zijn de gewichten niet beschikbaar. - Voor vergelijkbare latency/kosten lokaal kun je vaak met Mistral‑7B‑Instruct of Ministral‑8B beginnen en later opschalen naar Mixtral als je meer capaciteit nodig hebt.
Mistral Small 4 is een nieuw uitgebracht open-weight multimodaal AI-model van Mistral AI (maart 2026) dat redeneervermogen, programmeercapaciteiten en visuele mogelijkheden in één enkele architectuur combineert. Het kan lokaal worden ingezet met frameworks zoals Ollama, vLLM of llama.cpp (gekwantiseerd), waarvoor GPU’s (≥24GB VRAM aanbevolen) of high-end CPU’s met kwantisatie vereist zijn. Het belangrijkste voordeel is de hoge prestaties tegen aanzienlijk lagere inferentiekosten en latentie, waardoor het ideaal is voor on-device AI-toepassingen.
Jan 6, 2026
Mistral 3
Mistral 3: modelfamilie, architectuur, benchmarks en meer
Mistral 3 is de meest recente, ambitieuze release van Mistral AI — een volledige familie van modellen met open gewichten die tegelijk op meerdere fronten vooruitgang boekt: sparse-expert
Jan 6, 2026
Magistral
Mistral AI
Mistral AI lanceert Magistral, zijn eerste open source-model gericht op inferentie
De Franse AI-startup Mistral AI heeft Magistral aangekondigd, zijn eerste familie van op redeneren gerichte taalmodellen, waarmee de intrede van Europa in de opkomende ruimte van
Jan 5, 2026
Mistral 7B
Wat is Mistral 7B?
Mistral 7B onderscheidt zich door zijn uitzonderlijke mogelijkheden in tekstgeneratie, samenvatting, vraag-antwoord en andere NLP-taken. In dit artikel zullen we
Jan 5, 2026
DeepSeek R1
Mistral AI
OpenAI
Beste generatieve AI API's in 2025
Het snelgroeiende gebied van generatieve AI heeft geleid tot een verscheidenheid aan krachtige Application Programming Interfaces (API's) waarmee ontwikkelaars
Jan 5, 2026
l-la-va-v-1-6
l-la-va-v-1-6-mistral-7-b
LLaVa v1.6 – Mistral 7B-API
De LLaVa v1.6 - Mistral 7B API is een krachtig taalmodel dat is gebouwd voor hoogwaardige natuurlijke taalverwerkingstaken. Met 7 miljard parameters combineert LLaVa v1.6 - Mistral 7B de nieuwste ontwikkelingen in transformerarchitectuur en natuurlijk taalbegrip, en biedt ontwikkelaars een efficiënte en schaalbare tool voor een breed scala aan tekstgebaseerde toepassingen.
Jan 5, 2026
mistral
Mistral 7B
Mistral 7B-API
Met de Mistral 7B API kunnen ontwikkelaars het 7 miljard parameters tellende taalmodel van Mistral AI integreren in toepassingen voor het begrijpen en genereren van natuurlijke taal.