Mistral 3: Keluarga Model, Arsitektur, Benchmark & Lainnya

CometAPI
AnnaDec 7, 2025
Mistral 3: Keluarga Model, Arsitektur, Benchmark & Lainnya

Mistral 3 adalah rilis terbaru dan paling ambisius dari Mistral AI — sebuah keluarga lengkap model open-weight yang mendorong kemajuan di beberapa bidang sekaligus: skala sparse-expert pada ukuran flagship, varian dense ringkas untuk deployment edge dan lokal, multimodalitas konteks panjang, serta lisensi terbuka yang permisif untuk mendorong penggunaan dan riset dunia nyata.

Apa itu Mistral 3?

Mistral 3 adalah sebuah keluarga model bahasa multimodal open-weight yang dirilis oleh Mistral AI pada akhir 2025. Keluarga ini mencakup tiga model dense (non-sparse) ringkas — Ministral 3 dengan 3B, 8B, dan 14B parameter — serta Mistral Large 3 sebagai model andalan berbasis sparse Mixture-of-Experts (MoE) dengan 675B total parameter dan sekitar 41B parameter aktif saat inferensi. Semua model dirilis di bawah lisensi Apache 2.0 dan tersedia dalam format terkompresi untuk mendukung distribusi luas dan deployment lokal. Fitur kunci yang disorot Mistral mencakup kemampuan multimodal, jendela konteks sangat panjang (Large: hingga 256K token), dan optimisasi untuk akselerator modern.

Mistral 3 penting karena tiga alasan:

  1. Cakupan — keluarga ini menjangkau skala dari sangat kecil hingga frontier (varian dense Ministral 3B / 8B / 14B dan MoE 675B), memungkinkan alur kerja riset dan produksi yang konsisten di berbagai trade-off biaya/kinerja.
  2. Keterbukaan — Mistral merilis model dan bobot di bawah lisensi Apache-2.0 dan menyediakan artefak siap-deploy di platform seperti Hugging Face untuk mempercepat adopsi.
  3. Fokus rekayasa — model Large 3 mengadopsi arsitektur MoE granular dengan total parameter sangat besar tetapi set parameter aktif yang jauh lebih kecil saat inferensi, yang bertujuan menghadirkan kapabilitas kelas frontier dengan throughput dan efisiensi biaya yang lebih baik untuk beban tertentu.

Ikhtisar Keluarga Mistral 3

Ministral 3 — 14B (Ministral 3 14B)

Apa itu: Model dense (non-MoE) terbesar dalam lini ringkas/edge “Ministral”: model multimodal berkualitas tinggi dengan 14 miliar parameter yang ditawarkan dalam varian Base / Instruct / Reasoning dan disetel untuk pemahaman teks + gambar serta pengikut instruksi.

Kapan memilihnya: Anda menginginkan performa mendekati kelas atas dari model dense tanpa kompleksitas MoE, dan menginginkan performa instruksi/chat yang kuat serta kemampuan visi dalam satu model. Cocok untuk agen chat, asisten multimodal, pembuatan kode, dan beban kerja on-device/edge yang lebih menuntut yang masih mampu menampung model lebih besar.

Ministral 3 — 8B (Ministral 3 8B)

Apa itu: Model dense 8 miliar parameter yang seimbang dan efisien dalam keluarga Ministral 3. Tersedia dalam varian Base / Instruct / Reasoning dan mendukung input multimodal. Diposisikan sebagai “sweet spot” untuk banyak kasus penggunaan produksi.

Kapan memilihnya: Anda membutuhkan kualitas generasi dan kemampuan penalaran yang baik namun menginginkan latensi dan jejak VRAM yang jauh lebih kecil dibanding 14B. Sangat cocok untuk chatbot, asisten on-device, layanan web dengan anggaran GPU terbatas, dan penggunaan tertanam dengan kuantisasi.

Ministral 3 — 3B (Ministral 3 3B)

Apa itu: Anggota dense terkecil dari keluarga Ministral 3: model multimodal 3 miliar parameter (Base / Instruct / Reasoning). Dirancang untuk skenario memori/latensi sangat rendah sambil tetap mempertahankan fitur multimodal modern.

Kapan memilihnya: Saat Anda membutuhkan inferensi on-device, latensi sangat rendah, atau menjalankan banyak agen ringan secara bersamaan dengan biaya rendah — misalnya aplikasi mobile, robot, drone, atau deployment lokal yang sensitif terhadap privasi. Cocok untuk chat, rangkuman, tugas kode ringan, dan tugas cepat visi+teks.

Mistral Small 3 — 24B(Mistral Small 3)

Apa itu: Sebuah model dense 24 miliar parameter yang dioptimalkan untuk latensi yang dirilis Mistral sebagai bagian dari keluarga Mistral 3. Dirancang untuk memberikan throughput single-GPU yang tinggi dan kualitas generasi kuat sambil tetap mudah dilayani (tanpa kompleksitas MoE).

Kapan memilihnya: Anda menginginkan trade-off terbaik pada single-GPU (atau single-node): kualitas jauh lebih tinggi daripada 14B/8B di banyak benchmark, namun tetap relatif sederhana untuk dideploy. Cocok untuk sistem percakapan produksi, asisten dengan fidelitas lebih tinggi, dan aplikasi yang memerlukan penalaran lebih kuat tanpa kompleksitas penyajian MoE.

Mistral Large 3 — MoE (Mixture-of-Experts)

Apa itu: Model andalan sparse Mixture-of-Experts (MoE) dalam keluarga Mistral 3: ≈675B total parameter dengan ~41B parameter aktif per token (yakni hanya subset expert yang diaktifkan untuk setiap token). Dirancang untuk penalaran frontier, panjang konteks yang sangat besar, dan kinerja lintas domain terbaik. Open-weight (Apache-2.0).

Kapan memilihnya: Gunakan saat Anda memerlukan penalaran terbaik, pemahaman konteks sangat panjang (Large 3 mendukung jendela yang sangat panjang—halaman vendor melaporkan hingga 256k token untuk penggunaan konteks panjang), atau saat Anda membangun sistem enterprise bernilai tinggi yang dapat membenarkan kompleksitas dan infrastruktur penyajian MoE.

Tabel perbandingan

ModelKekuatanKeterbatasan & catatan
Ministral 3 14BKeseimbangan terbaik kualitas → ukuran model dalam keluarga ringkas; sering menyamai atau mendekati latensi single-GPU kelas 24B di stack yang dioptimalkan. Penalaran kuat dan pemahaman multimodal (saat menggunakan varian Instruct / Reasoning).Jejak memori lebih besar daripada 8B/3B — mungkin perlu kuantisasi atau kernel yang dioptimalkan untuk deployment single-GPU kelas konsumen. Jika Anda butuh jejak latensi paling kecil, pertimbangkan alternatif 8B atau 3B.
Ministral 3 8BTrade-off biaya/latensi yang kuat: kebutuhan memori dan komputasi jauh lebih rendah daripada 14B sambil mempertahankan kinerja multimodal dan penalaran yang solid (terutama pada varian Reasoning). Mudah dijalankan dengan runtime teroptimasi dan kuantisasi.Tidak sekuat pada tugas penalaran paling sulit atau konteks terpanjang dibanding 14B atau model Small 24B, namun sering “cukup baik” untuk produksi dengan biaya jauh lebih rendah. Gunakan varian Reasoning untuk tugas matematika/koding/STEM.
Ministral 3 3BJejak paling kecil, tercepat dijalankan pada perangkat keras terbatas, paling mudah dikuantisasi dan dideploy secara lokal. Tetap mendukung pemahaman gambar dan pengikut instruksi pada variannya yang disetel.Kualitas generasi mentah lebih rendah pada tugas penalaran sangat panjang atau kompleks dibanding 8B/14B/24B/MoE besar. Sangat baik untuk scale-out atau edge namun pilih model lebih besar untuk kebutuhan akurasi tertinggi.
Mistral Small 3Performa benchmark gaya MMLU tinggi untuk kelasnya, arsitektur dan kernel yang dioptimalkan untuk latensi, dan dirilis di bawah Apache-2.0 untuk penggunaan langsung. Didukung luas oleh vendor cloud dan runtime teroptimasi (NVIDIA, dll.).VRAM/komputasi lebih besar daripada model Ministral 14B/8B/3B — mungkin memerlukan GPU single yang lebih bertenaga atau setup multi-GPU jika Anda menargetkan jendela konteks besar atau konkurensi tinggi. Namun lebih sederhana di-host daripada flagship MoE.
Mistral Large 3Kapasitas efektif per token jauh lebih tinggi daripada model dense dengan biaya inferensi yang sebanding (karena hanya expert aktif yang digunakan), memungkinkan penalaran dan perilaku konteks panjang yang superior.Kompleksitas penyajian: MoE memerlukan sharding expert, routing, memori tambahan, dan IO jaringan — lebih kompleks dan mahal dijalankan pada skala dibanding model dense.

Tolok ukur Mistral 3 — seberapa baik performanya?

Tolok ukur memang tidak sempurna namun berguna. Banyak evaluasi independen dan pihak ketiga muncul sejak peluncuran; gambarnya beragam: Mistral Large 3 mendorong atau menyamai model open terbaik pada banyak leaderboard standar (terutama tugas non-penalaran dan multimodal), sementara seri Ministral menunjukkan price-performance yang kuat untuk tugas skala lebih kecil.

NLP umum dan penalaran

Kuat pada tugas penalaran dan konteks panjang: Mistral Large 3 dilaporkan kompetitif (sering terbaik di model open-source) pada dataset penalaran (AIME, suite penalaran matematika/kode tingkat lanjut) dan tolok ukur pengetahuan umum seperti MMLU dalam perbandingan komunitas. Makalah lintas tugas dan leaderboard independen yang menyertakan Large 3 menunjukkan kinerja di puncak atau dekat puncak model open-weight.

Kode & rekayasa perangkat lunak

Leaderboard coding open-source: posting awal LMArena dan SWE-Bench menunjukkan bahwa Mistral Large 3 adalah performer teratas di antara model open untuk tugas coding — beberapa peringkat komunitas menempatkannya #1 open-source pada leaderboard coding tertentu. Namun demikian, model tertutup (OpenAI, xAI, Google) sering masih memimpin kemampuan kode tingkat teratas pada leaderboard proprietari.

Di leaderboard LMArena, Mistral Large 3 menempati:

  • Peringkat ke-2 di antara model non-inference open-source;
  • Peringkat ke-6 di antara model open-source secara keseluruhan.
ItemMistral 3 14B InstructMistral 3 8B InstructMistral 3 3B Instruct
Model PositioningAndalan edge berkinerja tinggi (kelas enterprise)Model arus utama yang seimbang dan hemat energiModel lokal/edge ultra-ringan
Total Parameters≈ 14B (13.5B LM + 0.4B Vision)≈ 8.8B (8.4B LM + 0.4B Vision)≈ 3.8B (3.4B LM + 0.4B Vision)
Vision CapabilityPemahaman gambar beresolusi tinggi, analisis dokumenTanya jawab gambar resolusi menengahDeskripsi gambar ringan
Agent CapabilitiesFunction Calling + keluaran JSONFunction Calling + keluaran JSONFunction Calling + keluaran JSON
Context Reasoning Ability⭐⭐⭐⭐⭐ (Kuat)⭐⭐⭐⭐ (Cukup kuat)⭐⭐⭐ (Ringan)
Math Reasoning (AIME25)0.8500.7870.721
Multimodal Performance (MMMBench)8.498.087.83
Instruction Following (WildBench)68.566.856.8
Knowledge Understanding (MMLU)0.7940.7610.652
Memory Requirement (FP8)≈ 24 GB≈ 12 GB≈ 8 GB

Cara mengakses / mencoba Mistral 3 (langkah demi langkah)

1)Unduh dan jalankan dari Hugging Face (bobot + kartu model)

  • Kunjungi organisasi Mistral dan halaman model spesifik (mis. mistralai/Mistral-Large-3-675B-Instruct-2512 atau halaman model Ministral 3) dan ikuti “Files & versions” / kartu model untuk format yang direkomendasikan (NVFP4/FP8/FP16).
  • Alur kerja tipikal:
    1. pip install transformers accelerate torch (atau gunakan runtime seperti vLLM).
    2. Salin ID model yang tepat dari Hugging Face (halaman model memuat ID resmi dan format yang direkomendasikan).
    3. Contoh (untuk model ringkas Ministral — gunakan ID HF yang tepat untuk menjalankan nyata):
from transformers import AutoTokenizer, AutoModelForCausalLM  
tokenizer = AutoTokenizer.from_pretrained("mistralai/<model-id>")  
model = AutoModelForCausalLM.from_pretrained("mistralai/<model-id>",  
                                             device_map="auto",  
                                             torch_dtype="auto")
  1. Untuk Large 3 (MoE), utamakan runtime vendor atau endpoint HF-inference — pemuatan langsung transformers mungkin tidak optimal untuk distribusi MoE.

2) Gunakan endpoint cloud terkelola (paling cepat, tanpa infrastruktur)

  • Amazon Bedrock: Mistral Large 3 dan Ministral 3 ditambahkan ke Bedrock — Anda dapat membuat endpoint serverless melalui Bedrock dan memanggilnya via API/SDK Bedrock. Cocok untuk aplikasi produksi tanpa operasi infrastruktur.
  • IBM watsonx dan Azure Foundry: diumumkan sebagai mitra peluncuran — akses ter-host kelas enterprise dan fitur kepatuhan.
  • Mistral AI Studio: produk ter-host dari Mistral untuk bereksperimen dengan model mereka.

3) Gunakan stack yang dioptimalkan vendor (jika self-host)

  • NVIDIA: gunakan runtime teroptimasi NVIDIA dan varian FP8/NVFP4 untuk throughput dan biaya yang lebih baik (NVIDIA menerbitkan blog pengembang dengan optimisasi untuk Mistral 3). Jika Anda berencana meng-host Large 3, gunakan perangkat keras kelas GB200/H200 dan ikuti panduan NVIDIA.
  • vLLM / runtime MoE khusus: banyak grup menggunakan vLLM atau stack inferensi yang memahami MoE untuk latensi lebih rendah dan batching lebih baik.

4) Host / API pihak ketiga

Penyedia seperti Modal, CometAPI, dan lainnya memungkinkan Anda memanggil model melalui API yang lebih sederhana atau endpoint bayar-sesuai-pemakaian — berguna untuk prototipe tanpa terkunci vendor cloud.

keterbatasan, risiko, dan praktik terbaik

Keterbatasan dan pola kegagalan yang diketahui

  • Benchmark bukan segalanya: laporan posisi di leaderboard bervariasi; evaluasi spesifik tugas itu krusial.
  • Variansi instruction-tuning: varian instruction-tuned yang berbeda (base / instruct / reasoning) dapat menghasilkan perilaku berbeda; pilih yang tepat.
  • Kompleksitas deployment untuk MoE: model mixture-of-experts bisa lebih kompleks untuk dideploy dan disetel (routing, tata letak memori, batching). Gunakan runtime yang direkomendasikan vendor dan format terkuantisasi bila memungkinkan.

Pertimbangan biaya dan efisiensi

  • Ministral 3 (3–14B): Biaya per token rendah, layak dengan GPU murah atau banyak instance on-prem. Baik untuk dibenamkan ke aplikasi klien, backend mobile, atau layanan dengan anggaran latensi ketat.
  • Mistral Large 3: Kebutuhan sumber daya absolut lebih tinggi, tetapi aktivasi sparse mengurangi komputasi aktif per token dibanding model dense 675B; stack yang dioptimalkan vendor (NVIDIA) dapat secara material menurunkan latensi dan biaya. Jika Anda memerlukan manfaat penalaran/konteks panjang, Large 3 menjadi hemat biaya relatif terhadap model dense sebanding yang memerlukan komputasi inferensi jauh lebih besar untuk menyamai kapabilitas.

Keamanan dan tata kelola

Lisensi terbuka + kontrol enterprise: bobot Apache 2.0 memungkinkan penggunaan luas; perusahaan tetap harus menambahkan lapisan keamanan (filter, pemeriksaan human-in-the-loop, provenance) dan melakukan red-teaming untuk skenario penyalahgunaan spesifik domain. Kemitraan dan berita menunjukkan Mistral berkolaborasi dengan mitra untuk peluncuran yang bertanggung jawab.

Praktik terbaik

  • Benchmark pada data Anda: replikasi evaluasi dengan prompt, pengaturan temperatur, dan pascaproses Anda.
  • Gunakan inferensi multi-tier: rute tugas murah/cepat ke model dense Ministral dan cadangkan Large 3 untuk beban kerja lebih berat.
  • Manfaatkan format yang dioptimalkan: gunakan format dan kernel yang disuplai vendor (NVFP4/Triton) untuk latensi lebih baik dan jejak memori berkurang.

Putusan akhir: posisi Mistral 3 di tahun 2025?

Mistral 3 adalah rilis yang strategis penting bagi ekosistem AI open-source dan enterprise. Dengan menggabungkan keluarga ringkas yang berlisensi permisif dan ramah deployment (Ministral 3) dengan flagship sparse berkapasitas tinggi (Mistral Large 3), Mistral menghadirkan perangkat yang mencakup pengembangan lokal hobi hingga beban kerja agen enterprise yang menuntut. Optimisasi vendor (terutama dengan NVIDIA) dan format terbuka berarti kinerja dan biaya dapat disetel per beban kerja. Benchmark awal menunjukkan Mistral Large 3 bersaing di puncak leaderboard model open sementara varian Ministral menonjol dalam efisiensi biaya pada tugas praktis.

Jika prioritas Anda adalah lisensi terbuka, kemampuan menjalankan model secara lokal/offline, dan performa penalaran yang kompetitif pada bot

Untuk memulai, jelajahi kapabilitas lebih banyak model (seperti Gemini 3 Pro) di Playground dan lihat Panduan API untuk instruksi terperinci. Sebelum mengakses, pastikan Anda telah masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga yang jauh lebih rendah daripada harga resmi untuk membantu Anda melakukan integrasi.

Siap mulai?→ Daftar CometAPI hari ini !

Baca Selengkapnya

500+ Model dalam Satu API

Diskon hingga 20%