Mistral Small 4
Mar 23, 2026
Mistral Small 4
Come eseguire Mistral Small 4 in locale
Mistral Small 4 è un modello di IA multimodale open-weight di nuova pubblicazione di Mistral AI (marzo 2026) che combina capacità di ragionamento, programmazione e visione in un’unica architettura. Può essere distribuito localmente utilizzando framework come Ollama, vLLM o llama.cpp (quantizzato), richiedendo GPU (si consigliano almeno 24 GB di VRAM) oppure CPU di fascia alta con quantizzazione. Il suo vantaggio principale è l’elevata prestazione a un costo di inferenza e una latenza significativamente inferiori, il che lo rende ideale per applicazioni di IA on-device.