MiniMax M2 adalah sumber terbuka, agen asli model bahasa besar (LLM) yang dirilis oleh MiniMax pada Oktober 27, 2025Ini secara eksplisit dirancang untuk coding dan alur kerja agen (memanggil alat, otomatisasi multi-langkah), memprioritaskan latensi rendah dan hemat biaya melayani sambil memberikan kemampuan penalaran dan penggunaan alat yang kuat.
Fitur Utama
Sorotan — spesialisasi pengkodean, alur kerja agen, jejak parameter aktif rendah, dukungan konteks panjang, API yang kompatibel dengan OpenAIPosisi MiniMax Minimax M2 sebagai model MoE yang cepat dan mudah diterapkan ditujukan untuk agen multi-langkah, pembuatan & perbaikan kode, alur kerja terminal/IDE, dan pemanggilan alat.
Peluru penting (cepat):
- Arsitektur: Campuran Pakar (MoE) dengan jumlah parameter total yang sangat besar dan kecil diaktifkan set parameter per lintasan maju.
- Jejak aktivasi: ~10 miliar parameter aktif (per token)
- Total parameter (dilaporkan): dilaporkan antara ~200B – 230B tergantung pada sumber/metrik (lihat Detail teknis).
- Jendela konteks: konteks panjang skala perusahaan; 204,800 token konteks maksimal.
- Modalitas utama: teks (memanggil alat/memanggil fungsi didukung).
- Agen asli: dirancang untuk pemanggilan alat multi-langkah (shell, browser, interpreter python, alat MCP).
- Fokus pengkodean: dioptimalkan untuk pengeditan multi-file, loop run-fix, dan tugas CI/IDE.
Detail teknis (arsitektur & spesifikasi)
Arsitektur — Campuran Pakar (MoE): Minimax M2 API menggunakan strategi MoE sehingga model dapat memiliki jumlah parameter total yang sangat besar sementara hanya mengaktifkan sebagian kecil per langkah inferensi. Hal ini menghasilkan peningkatan efisiensi komputasi, keluaran, dan biaya per token untuk agen interaktif dan loop pengkodean.
Presisi & kuantisasi — file model dan tumpukan penyedia mencantumkan format FP32/BF16 dan FP8 serta beberapa build terkuantisasi (safetensor, FP8/E4M3, dsb.), yang memungkinkan penerapan lokal dan pertukaran efisiensi.
Konteks & I/O — penyedia yang dikerahkan menerbitkan 204,800 Token dukungan konteks dan pengaturan output maksimum yang besar. M2 adalah hanya teks untuk saat ini (banyak rilis bobot terbuka dari China menekankan kemampuan teks/agen sementara multimodal tetap menjadi domain rilis lainnya).
Rekomendasi waktu proses / instruksi khusus — Minimax M2 API menggunakan “pemikiran yang terjalin” format keluaran yang membungkus penalaran internal model dalam <think>...</think> blok. Permintaan MiniMax menjaga konten pemikiran tersebut tetap utuh dan meneruskannya kembali dalam konteks historis untuk menjaga kinerja alur kerja agen multi-giliran.
Kinerja tolok ukur
Tolok ukur intelijen & agen komposit — pembandingan independen oleh Artificial Analysis melaporkan bahwa MiniMax-M2 mencapai Indeks Kecerdasan terbaik di kelasnya di antara model bobot terbuka, dan berada di peringkat teratas model sumber terbuka teratas pada metrik intelijen komposit, terutama dalam penggunaan alat, mengikuti instruksi, dan tugas agenAnalisis Buatan menyoroti model efisiensi (sangat sedikit parameter aktif) sebagai pendorong utama peringkatnya.

Minimax M2 menunjukkan hasil yang kuat pada pengkodean & rangkaian agen (jenis tugas Terminal-Bench, SWE-Bench, BrowseComp, LiveCodeBench), yang mana arsitektur dan anggaran aktivasinya mengutamakan perencanaan → tindakan → verifikasi (siklus kompilasi/jalankan/uji, suntingan multi-file, dan rantai alat).

Perbandingan: MiniMax M2 vs model kontemporer lainnya
Melawan rekan-rekan kelas berat terbuka (DeepSeek, Qwen3, Kimi, dll.) — Minimax M2 disajikan sebagai sangat efisien pada anggaran parameter aktif (≈10B) yang memberinya rasio intelijen per parameter aktif yang kuat; model terbuka lainnya mungkin memiliki hitungan parameter aktif yang lebih tinggi tetapi parameter totalnya serupa atau lebih tinggi.
Melawan model perbatasan komersial (OpenAI / Antropik / Google / xAI) — tempat pelaporan M2 di bawah model komersial teratas berdasarkan beberapa metrik generalis tetapi kompetitif atau unggul pada banyak tolok ukur agensi dan pengkodean untuk titik harganya.
Pertukaran biaya dan kecepatan — Biaya per tokennya hanya 8% dari Anthropic Claude Sonnet dan kecepatannya sekitar dua kali lebih cepat.
Keterbatasan & risiko
Keterbatasan — verbositas (penggunaan token tinggi), modalitas hanya teks, kelemahan spesifik tugas, dan risiko LLM yang umum (halusinasi, terlalu percaya diri, bias dataset). Analisis Buatan dan MiniMax menunjukkan bahwa M2 mungkin berkinerja lebih buruk daripada beberapa model generalis besar pada tugas-tugas terbuka tertentu, meskipun unggul dalam alur kerja agensi dan pengkodean. Karena berbasis MoE, pertimbangan penempatan (kerangka kerja perutean ahli, kuantisasi, dan inferensi) penting.
Peringatan operasional — Minimax M2 'S pemikiran yang saling terkait format memerlukan penyimpanan khusus <think>...</think> token di seluruh riwayat untuk performa terbaik; menghapus konten tersebut dapat menurunkan perilaku agen. Selain itu, karena Minimax M2 bertele-tele, biaya per tugas adalah fungsi dari keduanya harga per token dan total token yang dihasilkan.
Kasus penggunaan utama
- Orkestrasi agen & alur kerja yang panjang — rantai alat multi-langkah, siklus telusuri→ambil→eksekusi, pemulihan kesalahan, dan ketertelusuran bukti dalam menjalankan agen.
- Asisten produktivitas & pengkodean pengembang — loop kompilasi-jalankan-uji, suntingan multi-file, perbaikan yang telah divalidasi uji, dan Integrasi IDE (Contoh Claude Code, Cursor, Codex, Grok CLI ada).
- Armada agen / bot produksi berthroughput tinggi — dimana biaya per inferensi dan konkurensi Masalahnya, jejak parameter aktif M2 yang rendah dapat mengurangi biaya infrastruktur.
Bagaimana cara menelepon Minimax M2 API dari CometAPI
minimax-m2 Harga API di CometAPI, diskon 20% dari harga resmi:
- Token Masukan: $0.24 juta token
- Token Keluaran: $0.96/M token
Langkah-langkah yang Diperlukan
- Masuk ke cometapi.comJika Anda belum menjadi pengguna kami, silakan mendaftar terlebih dahulu.
- Masuk ke Anda Konsol CometAPI.
- Dapatkan kunci API kredensial akses antarmuka. Klik “Tambahkan Token” pada token API di pusat personal, dapatkan kunci token: sk-xxxxx dan kirimkan.

Gunakan Metode
- Pilih titik akhir "minimax-m2" untuk mengirim permintaan API dan atur isi permintaan. Metode dan isi permintaan diperoleh dari dokumen API situs web kami. Situs web kami juga menyediakan uji Apifox untuk kenyamanan Anda.
- Mengganti dengan kunci CometAPI Anda yang sebenarnya dari akun Anda.
- Masukkan pertanyaan atau permintaan Anda ke dalam kolom konten—inilah yang akan ditanggapi oleh model.
- Memproses respons API untuk mendapatkan jawaban yang dihasilkan.
CometAPI menyediakan REST API yang sepenuhnya kompatibel—untuk migrasi yang lancar. Detail penting untuk Dokumen API:
- URL dasar: https://api.cometapi.com/v1/chat/completions
- Nama Model: "
minimax-m2" - Otentikasi:
Bearer YOUR_CometAPI_API_KEYHeader - Jenis konten:
application/json.
Integrasi API & Contoh
Di bawah ini adalah Ular sanca cuplikan yang menunjukkan cara memanggil GLM‑4.6 melalui API CometAPI. Ganti <API_KEY> dan <PROMPT> demikian:
import requests
API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer <API_KEY>",
"Content-Type": "application/json"
}
payload = {
"model": "minimax-m2",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "<PROMPT>"}
],
"max_tokens": 512,
"temperature": 0.7
}
response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())
Lihat juga Claude Haiku 4.5 API
