MiniMax, perusahaan rintisan AI asal Tiongkok, telah merilis bobot dan perkakas untuk MiniMax M2, model bahasa besar terbarunya yang dirancang khusus untuk alur kerja pengkodean dan penggunaan alat agen. Perusahaan menyatakan bahwa M2 dibangun sebagai desain gabungan para ahli (MoE) yang efisien, memberikan kinerja pengkodean dan agen terbaik dengan biaya yang jauh lebih rendah dibandingkan model proprietary yang sebanding. Saya akan menjelaskan mengapa MiniMax M2 adalah rajanya efektivitas biaya, mulai dari fitur, kinerja benchmark, arsitektur, dan biaya.
Apa itu MiniMax M2?
MiniMax M2 adalah model bahasa besar sumber terbuka terbaru MiniMax yang ditujukan terutama untuk pengkodean, alur kerja agen multi-langkah, dan pemanggilan alatModel ini menggunakan arsitektur Campuran-Pakar: ia memiliki total jejak parameter, tetapi hanya sejumlah kecil parameter yang diaktifkan per token selama inferensi — desain yang mengurangi biaya dan latensi inferensi sambil mempertahankan kemampuan penalaran dan pengkodean yang kuat.
Angka-angka utama (saat dirilis)
- Total anggaran parameter: ~230 miliar (total).
- Parameter yang diaktifkan/efektif per token: ~10 miliar (diaktifkan).
- Jendela konteks (dilaporkan): hingga ~204,800 token
- Lisensi: MIT (bobot sumber terbuka).
- Klaim biaya dan kecepatan: Biaya per tokennya hanya 8% dari Anthropic Claude Sonnet dan kecepatannya sekitar dua kali lebih cepat.
Apa saja fitur utama MiniMax M2?
Perilaku agen / berorientasi pada alat
MiniMax M2 Kapal-kapal ini dilengkapi dengan dukungan eksplisit untuk pemanggilan alat, perintah terstruktur, dan pola penalaran → tindakan → verifikasi yang disisipkan, sehingga memudahkan pembuatan agen otonom yang memanggil API eksternal, menjalankan kode, atau mengoperasikan terminal. Beberapa resep integrasi menargetkan runtime agen dan tumpukan vLLM/akselerasi.
Dioptimalkan untuk tugas pengkodean & multi-file
Tolok ukur yang dilaporkan pada Hugging Face dan analisis pihak ketiga menunjukkan performa yang kuat pada rangkaian pengujian yang berorientasi pada pengembang (pengujian unit, simulasi terminal, sintesis multi-file), di mana M2 meraih skor tinggi dibandingkan model terbuka dan tertutup lainnya. Hal ini sejalan dengan penekanan produk MiniMax yang dinyatakan pada perkakas pengembang dan asisten pengkodean.
Efisiensi Campuran Ahli (MoE) yang Jarang
Daripada satu set parameter padat, MiniMax M2 menggunakan Campuran Ahli yang Jarang strategi perutean sehingga hanya sebagian kecil dari bank parameter lengkap yang diaktifkan per token. Ini menghasilkan jumlah parameter total yang besar tetapi jauh lebih kecil diaktifkan jejak parameter selama inferensi — meningkatkan efisiensi biaya dan latensi untuk banyak beban kerja.
Bagaimana cara kerja MiniMax M2 secara internal?
Arsitektur tingkat tinggi
Menurut pengungkapan teknis dan pelaporan independen MiniMax, MiniMax M2 diimplementasikan sebagai transformator MoE jarang dengan keputusan desain berikut yang banyak dilaporkan:
- Sangat besar total jumlah parameter (dilaporkan dalam liputan pers sebesar ratusan miliar), dengan hanya sebagian kecil ahli yang diaktifkan per token (pers menyebutkan contoh seperti total 230 miliar dengan ~10 miliar aktif per inferensi dalam laporan awal). Ini adalah kompromi klasik MoE: kapasitas skala tanpa biaya inferensi linear.
- Perutean: perutean pakar top-k (Top-2 atau Top-K) yang mengirimkan setiap token ke sejumlah kecil pakar sehingga beban komputasi jarang dan dapat diprediksi.
- Pengodean atensi & posisi: pola atensi hibrida (misalnya, campuran kernel atensi padat dan efisien) dan pengodean posisional gaya rotary atau RoPE modern disebutkan dalam dokumentasi model komunitas dan kartu model Hugging Face. Pilihan-pilihan ini meningkatkan perilaku konteks panjang yang penting untuk pengodean multi-file dan memori agen.
Mengapa MoE yang jarang membantu alur kerja agen
Alur kerja agen biasanya memerlukan perpaduan penalaran, pembuatan kode, orkestrasi alat, dan perencanaan stateful. Dengan MoE, MiniMax M2 mampu menyediakan banyak submodul pakar khusus (misalnya, pakar yang lebih ahli dalam pemrograman, pakar yang ahli dalam pemformatan alat, pakar untuk pengambilan fakta) sekaligus mengaktifkan hanya pakar yang dibutuhkan untuk setiap token. Spesialisasi tersebut meningkatkan throughput dan ketepatan untuk tugas-tugas gabungan sekaligus menurunkan biaya inferensi dibandingkan dengan model padat yang seragam dan besar.
Catatan pelatihan & penyempurnaan (apa yang diterbitkan MiniMax)
MiniMax mengutip campuran kode, penyetelan instruksi, teks web, dan kumpulan data loop agen untuk kelancaran instruksi dan alat M2.
Mengapa MoE untuk agen dan kode?
MoE memungkinkan Anda meningkatkan kapasitas model (untuk penalaran yang lebih baik dan kapabilitas multimodal) tanpa meningkatkan FLOP inferensi secara linear untuk setiap token. Untuk agen dan asisten pengkodean — yang sering kali membuat banyak kueri interaktif singkat dan memanggil alat eksternal — aktivasi selektif MoE menjaga latensi dan tagihan cloud tetap wajar, sekaligus mempertahankan manfaat kapasitas dari model yang sangat besar.
Kinerja Tolok Ukur
Menurut evaluasi independen oleh Artificial Analysis, sebuah organisasi penelitian dan pembanding model AI generatif pihak ketiga, M2 saat ini menduduki peringkat pertama di antara semua sistem tertimbang sumber terbuka secara global dalam “Indeks Intelijen”, sebuah ukuran komprehensif untuk kinerja penalaran, pengodean, dan eksekusi tugas.

Kartu model MiniMax menunjukkan hasil perbandingan di seluruh pengkodean / agen Rangkaian benchmark (SWE-bench, Terminal-Bench, BrowseComp, GAIA, τ²-Bench, dll.). Dalam tabel-tabel yang dipublikasikan tersebut, M2 menunjukkan skor yang kuat pada tugas pengkodean dan alat multi-langkah, dan MiniMax menyoroti skor komposit intelijen kompetitif/agentik relatif terhadap model terbuka lainnya.
Skor ini menempatkannya pada atau mendekati level sistem proprietary teratas seperti GPT-5 (berpikir) dan Claude Sonnet 4.5, menjadikan MiniMax-M2 model terbuka dengan performa tertinggi hingga saat ini pada tugas agen dunia nyata dan pemanggilan alat.

MiniMax-M2 mencapai kinerja terbaik atau mendekati terbaik dalam banyak kategori:
- SWE-bench Terverifikasi: 69.4 — mendekati 74.9 GPT-5
- ArtifactsBench: 66.8 — di atas Claude Sonnet 4.5 dan DeepSeek-V3.2
- τ²-Bench: 77.2 — mendekati 80.1 GPT-5
- GAIA (hanya teks): 75.7 — melampaui DeepSeek-V3.2
- BrowseComp: 44.0 — jauh lebih kuat dibandingkan model terbuka lainnya
- FinSearchComp-global: 65.5 — terbaik di antara sistem bobot terbuka yang diuji
Biaya dan Harga
MiniMax secara publik mencantumkan harga API yang sangat kompetitif sebesar $0.30 per 1,000,000 token masukan dan $1.20 per 1,000,000 token keluaranPerusahaan juga melaporkan angka throughput inferensi (TPS) pada titik akhir yang dihostingnya ~100 token/detik (dan menyatakan sedang memperbaikinya). CometAPI menawarkan diskon 20% dari harga resmi untuk mengakses API MiniMax M2.
Interpretasi cepat
- Token masukan sangat murah per tokennya dibandingkan dengan banyak model komersial; token keluaran lebih mahal tetapi masih rendah dibandingkan dengan banyak alternatif tertutup.
- Throughput (token/detik) dan latensi akan sangat bergantung pada pilihan penerapan (hosting vs. self-hosting, jenis GPU, batching, kuantisasi). Gunakan TPS yang dipublikasikan sebagai dasar perencanaan API hosting saja.
Apa saja kegunaan terbaik untuk MiniMax M2?
1) Asisten pengembang ujung ke ujung (pembuatan kode → menjalankan → memperbaiki → verifikasi)
MiniMax M2 dirancang khusus untuk pengeditan multi-file, loop kompilasi/jalankan/perbaiki, dan otomatisasi CI/IDE—di mana model harus mengingat basis kode yang besar atau transkrip terminal yang panjang dan mengatur pemanggilan alat (build, uji, lint, git). Tolok ukur dan uji komunitas awal menempatkannya di posisi teratas di antara rangkaian pengkodean/agen.
Aliran tipikal: ambil repo → jalankan pengujian di dalam sandbox → parsing kegagalan → hasilkan patch → jalankan pengujian lagi → buka PR jika hijau.
2) Agen multi-langkah dan RPA (alat + memori)
Aplikasi agen yang membutuhkan perencanaan, pemanggilan alat, dan pemulihan (penjelajahan web, terminal, basis data, API khusus) mendapatkan manfaat dari konteks panjang dan pemanggilan fungsi/alat terstruktur. Kemampuan konteks panjang M2 memungkinkan Anda menyimpan rencana, log, dan status dalam memori tanpa pengambilan eksternal yang agresif.
3) Penalaran dokumen panjang & dukungan pelanggan (buku pedoman, manual)
Karena M2 mendukung konteks yang sangat besar, Anda dapat memasukkan seluruh manual produk, buku petunjuk, atau riwayat percakapan pengguna yang panjang tanpa pemotongan yang berat — ideal untuk otomatisasi dukungan yang kaya konteks, penalaran kebijakan, dan pemeriksaan kepatuhan.
4) Penelitian & eksperimen (beban terbuka, penggunaan permisif)
Dengan bobot terbuka di Hugging Face, Anda dapat menjalankan eksperimen (penyetelan halus khusus, riset MoE, strategi perutean baru, atau mekanisme keamanan) secara lokal atau di kluster privat. Hal ini membuat M2 menarik bagi lab dan tim yang menginginkan kontrol penuh.
Rekomendasi praktis untuk teknisi dan tim produk
Jika Anda ingin eksperimen cepat: Gunakan API cloud MiniMax (kompatibel dengan Anthropic/OpenAI). API ini menghilangkan hambatan infrastruktur lokal dan memberi Anda akses langsung ke pemanggilan alat dan fitur konteks panjang.
Jika Anda memerlukan kontrol dan optimalisasi biaya: Unduh bobot dari Hugging Face dan sajikan dengan vLLM atau SGLang. Bersiaplah untuk berinvestasi dalam rekayasa untuk sharding MoE dan penyetelan inferensi yang cermat. Uji memori, biaya, dan latensi terhadap beban kerja Anda yang sebenarnya (agen multi-turn dan tugas kode multi-file).
Pengujian dan keamanan: Jalankan pengujian tim merah, filter keamanan, dan validasi alat Anda sendiri. Bobot terbuka mempercepat penelitian, tetapi juga memungkinkan pelaku kejahatan untuk melakukan iterasi dengan cepat; bangun detektor dan pemeriksaan yang melibatkan manusia jika diperlukan.
Kesimpulan
MiniMax M2 merepresentasikan momen penting dalam ekosistem LLM sumber terbuka: sebuah model berlisensi permisif yang besar, berpusat pada agen, dan memprioritaskan pengodean dan penggunaan alat, sekaligus menjaga biaya inferensi tetap praktis melalui perutean MoE yang jarang. Bagi organisasi yang membangun alat pengembang, agen otonom, atau tim riset yang membutuhkan akses ke bobot untuk penyempurnaan, M2 menawarkan opsi yang menarik dan langsung dapat digunakan — asalkan tim siap mengelola kompleksitas penerapan MoE.
Cara Mengakses API MiniMax M2
CometAPI adalah platform API terpadu yang menggabungkan lebih dari 500 model AI dari penyedia terkemuka—seperti seri GPT OpenAI, Gemini Google, Claude Anthropic, Midjourney, Suno, dan lainnya—menjadi satu antarmuka yang ramah bagi pengembang. Dengan menawarkan autentikasi yang konsisten, pemformatan permintaan, dan penanganan respons, CometAPI secara drastis menyederhanakan integrasi kapabilitas AI ke dalam aplikasi Anda. Baik Anda sedang membangun chatbot, generator gambar, komposer musik, atau alur kerja analitik berbasis data, CometAPI memungkinkan Anda melakukan iterasi lebih cepat, mengendalikan biaya, dan tetap tidak bergantung pada vendor—semuanya sambil memanfaatkan terobosan terbaru di seluruh ekosistem AI.
Pengembang dapat mengakses API Minimax M2 melalui CometAPI, versi model terbaru selalu diperbarui dengan situs web resmi. Untuk memulai, jelajahi kemampuan model di tempat bermain dan konsultasikan Panduan API untuk petunjuk terperinci. Sebelum mengakses, pastikan Anda telah masuk ke CometAPI dan memperoleh kunci API. API Komet menawarkan harga yang jauh lebih rendah dari harga resmi untuk membantu Anda berintegrasi.
Siap untuk berangkat?→ Daftar ke CometAPI hari ini !
Jika Anda ingin mengetahui lebih banyak tips, panduan, dan berita tentang AI, ikuti kami di VK, X dan Discord!
