Mistral Small 4

Mar 23, 2026
Mistral Small 4

Como executar o Mistral Small 4 localmente

Mistral Small 4 é um modelo de IA multimodal de pesos abertos recém-lançado pela Mistral AI (março de 2026) que combina capacidades de raciocínio, programação e visão numa única arquitetura. Pode ser implantado localmente usando frameworks como Ollama, vLLM ou llama.cpp (quantizado), exigindo GPUs (≥24 GB de VRAM recomendados) ou CPUs de alto desempenho com quantização. A principal vantagem é o desempenho elevado com custo e latência de inferência significativamente menores, tornando-o ideal para aplicações de IA em dispositivos.