Mistral Small 4
Mar 23, 2026
Mistral Small 4
Comment exécuter Mistral Small 4 en local
Mistral Small 4 est un modèle d’IA multimodal à poids ouverts récemment publié par Mistral AI (mars 2026) qui combine des capacités de raisonnement, de programmation et de vision au sein d’une seule architecture. Il peut être déployé localement à l’aide de frameworks tels que Ollama, vLLM ou llama.cpp (quantifié), nécessitant des GPU (≥24GB de VRAM recommandés) ou des CPU haut de gamme avec quantification. Son principal avantage réside dans des performances élevées pour un coût et une latence d’inférence nettement inférieurs, ce qui le rend idéal pour les applications d’IA embarquées.