Mistral Small 4
Mar 23, 2026
Mistral Small 4
Cómo ejecutar Mistral Small 4 localmente
Mistral Small 4 es un modelo de IA multimodal de pesos abiertos recientemente lanzado por Mistral AI (marzo de 2026) que combina capacidades de razonamiento, programación y visión en una sola arquitectura. Puede implementarse localmente mediante frameworks como Ollama, vLLM o llama.cpp (cuantizado), y requiere GPU (se recomiendan ≥24 GB de VRAM) o CPU de gama alta con cuantización. Su principal ventaja es su alto rendimiento con un costo de inferencia y una latencia significativamente menores, lo que lo hace ideal para aplicaciones de IA en el dispositivo.