Model tujuan umum yang dinaik taraf secara menyeluruh bernama MiniMax M2.5, diumumkan oleh MiniMax dan diposisikan sebagai model yang dibina khusus untuk aliran kerja berasaskan agen, penjanaan kod, dan “produktivitI dunia sebenar.” Syarikat menggambarkan M2.5 sebagai hasil latihan pembelajaran peneguhan yang meluas dalam ratusan ribu persekitaran kompleks, memberikan peningkatan besar dalam penanda aras pengkodan, penggunaan alat, dan penaakulan konteks panjang sambil memacu kecekapan inferens dan keberkesanan kos.
Anda sudah boleh melihat MiniMax M2.5 di CometAPI. Harganya ialah 20% daripada harga rasmi dalam CometAPI.
Apakah MiniMax M2.5 dan mengapa ia penting?
MiniMax M2.5 ialah keluaran utama terbaharu daripada MiniMax, sebuah keluarga model yang diposisikan di sekitar aliran kerja berasaskan agen berthroughput tinggi dan — di atas segalanya — produktiviti pengkodan. Diumumkan pada pertengahan Februari 2026, M2.5 memperluas kerja siri M sebelumnya dengan tetingkap konteks lebih besar, primitif integrasi alat yang lebih ketat, dan penekanan latihan pada “ruang kerja natif AI” di mana model secara aktif mengorkestrakan carian pelayar, panggilan API, dan langkah pelaksanaan kod dan bukannya sekadar mengembalikan teks. Mesej pelancaran membingkaikan M2.5 bukan hanya sebagai peningkatan perbualan umum, tetapi sebagai langkah pada peringkat platform: ia bertujuan mempercepat produktiviti pembangun, mengautomasi tugas kejuruteraan berulang, dan berfungsi sebagai enjin untuk produk dipacu agen.
Mengapa ini penting hari ini adalah dua perkara. Pertama, model mencapai set penanda aras praktikal dan sasaran throughput yang menjadikannya menarik untuk sistem produksi (bukan sekadar demo penyelidikan). Kedua, keluaran ini menandakan bagaimana vendor mengutamakan penggunaan alat bersepadu dan kecekapan token: M2.5 ditala secara jelas untuk mengurangkan bilangan pusingan panggilan alat dan “token churn” semasa tugas berbilang langkah, yang diterjemahkan terus kepada kos dan kependaman lebih rendah dalam penggunaan dunia sebenar.
Bagaimanakah Prestasi MiniMax M2.5 dalam Penanda Aras Pengkodan?
Gambaran Keseluruhan Prestasi Pengkodan
MiniMax M2.5 pantas mendapat perhatian atas prestasinya pada penanda aras pengkodan standard yang digunakan merentas industri AI untuk menilai penjanaan kod dan penaakulan praktikal:
| Pakej Penanda Aras | Keputusan M2.5 | Penjelasan |
|---|---|---|
| SWE-Bench Verified | 80.2% | Mengukur keupayaan membaiki isu GitHub sebenar; prestasi hampir di kedudukan teratas. |
| Multi-SWE-Bench | 51.3% | Menilai kebolehpercayaan pengkodan merentas berbilang fail dan repositori. |
| SWE-Bench Pro | 55.4% | Ujian pengkodan dunia sebenar yang lebih sukar. |
Data pembandingan menunjukkan kebolehan pengkodan M2.5 setanding dengan model proprietari berperingkat tinggi seperti Anthropic’s Claude Opus 4.6 dan OpenAI’s GPT-5.2, meletakkan M2.5 antara pesaing teratas untuk tugas kejuruteraan perisian produksi. Skor melebihi 80% dalam penanda aras ini menandakan bahawa M2.5 mampu memberikan bantuan kejuruteraan perisian yang praktikal, bukan sekadar penjanaan kod teori. Ini menjadikannya sangat bernilai untuk aliran kerja perusahaan di mana ketepatan, kebolehpercayaan, dan kebolehpengurusan adalah keutamaan tertinggi.
Angka-angka ini menunjukkan M2.5 beroperasi pada tahap terkemuka industri tanpa beban harga melampau yang biasa bagi banyak sistem proprietari tertutup — satu poin yang secara langsung mencabar tanggapan industri baru-baru ini bahawa prestasi tinggi semestinya berkorelasi dengan kos tinggi.
Bagaimanakah M2.5 berkelakuan dalam aliran kerja kejuruteraan sebenar?
Melangkaui skor mentah, yang ketara ialah bagaimana M2.5 direka untuk paip berasaskan agen. Model ini termasuk primitif untuk pemikiran berjalin (renungan dalaman antara panggilan alat), penaakulan kod berbilang giliran yang lebih kukuh, dan strategi pengurusan konteks untuk pangkalan kod panjang. Dalam ujian awal, pengulas melaporkan bahawa M2.5 menjana sebahagian besar kod sedia-komit untuk kelas tugas tertentu dan memerlukan pembetulan manusia yang lebih sedikit daripada versi MiniMax sebelumnya. Gabungan itu — ketepatan laluan pertama yang lebih kuat dan kitaran ulang-alik yang lebih sedikit — menjadikan M2.5 menarik untuk peranan bantuan kod dan automasi CI.
Carian dan Panggilan Alat bagi MiniMax M2.5
Walaupun prestasi pengkodan sering menjadi metrik utama untuk LLM berorientasikan pembangun, M2.5 direka untuk produktiviti yang lebih luas:
| Jenis Tugas | Penanda Aras | Skor M2.5 |
|---|---|---|
| Web Search & Context | BrowseComp | 76.3% |
| Tool-Use Reasoning | BFCL Multi-Turn | 76.8% |
| Workflow Orchestration | MEWC (Multi-Expert) | 74.4% |
| Office Productivity | VIBE-Pro Suite | 54.2% |
Metrik ini menonjolkan bahawa keupayaan M2.5 meluas ke penaakulan padat berbilang langkah, carian berkesan dalam konteks tersimpan, dan interaksi alat jangka panjang — kecekapan utama untuk pembantu dan agen AI multimodal yang teguh.
Adakah ia dapat mencari dan menggunakan alat dengan berkesan?
Salah satu penambahbaikan utama dalam M2.5 ialah integrasi alat. Keupayaan “pemikiran berjalin” dalaman model membolehkannya membuat refleksi sebelum dan selepas setiap panggilan alat, memutuskan sama ada ia memerlukan carian lain atau alat berbeza, dan mensintesis keluaran pelbagai alat kepada langkah seterusnya yang koheren. Secara praktikal, ini mengurangkan bilangan pusingan panggilan alat yang diperlukan untuk menyelesaikan tugas berbilang langkah (cari → dapatkan → analisis → laksana). Dokumentasi platform dan ulasan praktikal melaporkan sekitar 20% pusingan panggilan alat yang lebih sedikit dan peningkatan ketara dalam “kematangan keputusan,” bermakna model membuat lebih sedikit panggilan alat yang berlebihan atau pramatang.
Penanda aras yang memfokuskan pada semakan pelayaran dan aliran kerja alat (BrowseComp, BFCL) meletakkan M2.5 hampir di puncak kumpulan untuk tugas berasaskan agen. Skor BrowseComp pada pertengahan 70-an dilaporkan, dan ujian panggilan alat gaya BFCL menunjukkan ketepatan tinggi dalam orkestrasi alat berbilang langkah. Keputusan tersebut penting untuk mana-mana produk yang mengharapkan model menyintesiskan data web langsung, memanggil API khusus domain, atau secara aktif memanipulasi fail dan kod bagi pihak pengguna.
Apakah maksudnya untuk integrasi?
Bagi jurutera yang membina pembantu, bot, atau paip automasi, rumusannya ialah M2.5 bukan sekadar “lebih baik dalam carian” — ia lebih baik dalam membuat keputusan tentang carian. Itu bermaksud lebih sedikit perjalanan pergi-balik, kurang pembaziran token, dan kod orkestrasi yang lebih ringkas dalam banyak kes.
Apakah Ciri Kecekapan dan Kelajuan MiniMax M2.5?
Salah satu atribut utama M2.5 ialah kelajuan dan kecekapan inferens — pertimbangan kritikal untuk penggunaan dunia sebenar di mana throughput mempengaruhi kos dan kependaman.
Metrik Kecekapan
| Metrik | Nilai |
|---|---|
| Peningkatan Kelajuan vs M2.1 | +37% |
| Kelajuan Output Standard | 50 token/saat |
| Kelajuan Output Lightning | 100 token/saat |
| Token Tipikal/Tugas | ~3.52M token untuk tugas kompleks |
Varian Lightning menyamai throughput model seperti Claude Opus 4.6 — tetapi dengan kos yang jauh lebih rendah. Ini membolehkan M2.5 menyokong aliran kerja berasaskan agen berterusan tanpa perbelanjaan token yang membebankan sepanjang sesi panjang atau penggunaan operasi volum tinggi.
Implikasi Kejuruteraan
- Kadar pemprosesan yang lebih tinggi berkait langsung dengan interaksi masa nyata yang lebih pantas dalam gelung pembangunan dan aliran kerja automasi.
- Kecekapan token yang lebih baik mengurangkan kos keseluruhan dalam tugas bentuk panjang berbilang peringkat seperti penjanaan dokumentasi, nyahpepijat, dan integrasi rentas sistem.
- Digabungkan dengan penanda aras penaakulan M2.5 yang tinggi, kecekapan ini bermakna hasil yang lebih baik pada kos masa jalan keseluruhan yang lebih rendah berbanding model hadapan pesaing.
Berapakah Kos MiniMax M2.5? — Pecahan Harga
Salah satu aspek paling mengganggu tentang M2.5 ialah penetapan harganya — diposisikan sebagai alternatif kos efektif kepada LLM proprietari. Apakah pilihan harga yang ditawarkan oleh MiniMax?
MiniMax menyediakan beberapa pilihan penggunaan dan langganan yang disasarkan kepada pembangun dan perniagaan. Bahan awam syarikat menggariskan dua pendekatan pengebilan untuk model teks dalam produksi: langganan Coding Plan (ditujukan kepada pembangun yang menjalankan volum tetap gesaan berkaitan kod) dan Pay-As-You-Go untuk penggunaan fleksibel dan meter. Coding Plan direka secara jelas untuk menawarkan pilihan bulanan murah bagi pasukan pembangun, manakala laluan pay-as-you-go mengenakan caj mengikut token atau mengikut profil throughput yang dipilih.
Bagaimana ‘Coding Plan’ berfungsi?
Coding Plan dipromosikan sebagai langganan bulanan yang membundel sejumlah tetap “prompt” atau sesi sepanjang irisan masa (contoh dalam dokumentasi termasuk peringkat seperti starter/plus/max dengan peruntukan prompt berbeza setiap 5 jam). Rasional yang dinyatakan adalah untuk menawarkan struktur kos yang boleh diramal dan mesra pembangun untuk pasukan yang bergantung kepada banyak sesi bantuan kod pendek yang kerap dan bukannya permintaan tunggal volum tinggi.
| Starter | Plus | Max | |
|---|---|---|---|
| Harga | $10 /bulan | $20 /bulan | $50 /bulan |
| Prompt | 100 prompt / 5 jam | 300 prompt / 5 jam | 1000 prompt / 5 jam |
| Starter | Plus | Max | |
|---|---|---|---|
| Harga | $100 /tahun 120 | $200 /tahun 240 | $500 /tahun 600 |
| Prompt | 100 prompt / 5 jam | 300 prompt / 5 jam | 1000 prompt / 5 jam |
Struktur Harga Token
| Varian | Harga Input | Harga Output | TPS (Token/saat) | Nota |
|---|---|---|---|---|
| M2.5-Standard | $0.15/M | $1.20/M | 50 | Varian dioptimumkan kos. |
| M2.5-Lightning | $0.30/M | $2.40/M | 100 | Varian dioptimumkan kelajuan. |
Kadar harga token ini secara berkesan mendemokrasikan ekonomi agen AI, membolehkan model berjalan berterusan pada skala perusahaan tanpa halangan kos yang dihadapi oleh banyak sistem proprietari yang menetapkan harga token output 10×–30× lebih tinggi.
Kos Operasi Setiap Jam
Menggunakan varian Lightning (100 TPS), output berterusan stabil menghasilkan kira-kira:
- 360,000 token dijana setiap jam
- Kos output = 360,000/1M × $2.40 ≈ $0.86
- Kos input menambah sedikit lagi untuk ~ $1/jam jumlah kos output berterusan
Ini adalah beberapa magnitud lebih murah daripada model hadapan tipikal, menjadikan operasi agen sentiasa aktif berdaya ekonomik untuk perniagaan.
Mencari cara yang lebih murah untuk menggunakan M2.5
Nikmati diskaun Minimax-M2.5 apabila menggunakan CometAPI:
| Harga Comet (USD / M Token) | Harga Rasmi (USD / M Token) | Diskaun |
|---|---|---|
| Input:$0.24/M; Output:$0.96/M | Input:$0.3/M; Output:$1.2/M | -20% |
Bagaimana untuk bermula dengan MiniMax M2.5
Di mana pembangun boleh mengakses model?
MiniMax menerbitkan dokumentasi dan panduan platform untuk mengintegrasikan M2.5 melalui API-nya (dokumen platform termasuk panduan untuk teks, pengkodan, dan aliran pemacu alat). Model ini juga berada dalam beberapa pustaka dan daftar model pihak ketiga (contohnya, beberapa pustaka platform memaparkan varian M2.5 untuk penggunaan awan dan untuk percubaan tempatan). Ini bermakna pembangun boleh sama ada memanggil M2.5 melalui titik akhir API rasmi MiniMax atau menggunakan peralatan pihak ketiga yang disokong jika tersedia.
Corak integrasi biasa
- Pembantu IDE / Editor — sambungkan M2.5 ke dalam pemalam IDE untuk menyediakan pelengkapan, penerang, dan penjanaan kes ujian. Gunakan langganan ‘Coding Plan’ jika anda menjangka banyak sesi pembangun pendek.
- Orkestrasi agen — benamkan M2.5 sebagai “otak keputusan” dalam sistem orkestrasi berbilang alat; manfaatkan tingkah laku panggilan alatnya yang kukuh untuk mengurus tindakan luaran (API, pertanyaan pangkalan data, pelari ujian). Pastikan kontrak skema yang jelas untuk payload API bagi meminimumkan halusinasi.
- Pengayaan carian + pengambilan — gabungkan lapisan pengambilan kecil (storan vektor + reranker) untuk mengehadkan penggunaan token konteks sambil mengekalkan kerelevanan untuk pertanyaan dokumen panjang. Prestasi penanda aras carian M2.5 yang kukuh menjadikannya padanan semula jadi untuk penjanaan beraugmentasi pengambilan.
- Transformasi kod kelompok — manfaatkan model untuk pembaikan besar-besaran atau penjanaan ujian automatik dengan menjalankan tugas berkelompok, di mana kos setiap jam dan tetapan throughput amat penting kepada ekonomi model.
Petua praktikal untuk hasil yang lebih baik
- Gunakan contoh few-shot yang mencerminkan aliran pembangun (input, bentuk output yang dikehendaki, kes kegagalan) untuk meningkatkan ketepatan bagi pengkodan atau gesaan panggilan alat.
- Kunci antara muka alat dengan pengesahan skema supaya apabila M2.5 mengeluarkan panggilan API, sistem hanya menerima payload yang disahkan.
- Pantau penggunaan token dan tetapkan pelindung (had token keras setiap panggilan) untuk mengelakkan bil melambung.
- Ukur kadar kejayaan (cth., kadar lulus ujian untuk kod yang dijana) dan bukannya bergantung semata-mata pada metrik kualiti subjektif.
Kesimpulan
MiniMax M2.5 mewakili langkah pragmatik ke hadapan dalam ceruk “agen + pengkodan” model besar: ia menggabungkan penanda aras pengkodan yang kukuh, sokongan eksplisit untuk penggunaan alat berjalin, dan penambahbaikan operasi yang bertujuan mengurangkan kos token dan masa dalam aliran kerja sebenar. Bagi pasukan yang memfokuskan pada automasi produktiviti pembangun, penjanaan kod, dan orkestrasi berbilang alat, M2.5 wajar dipilotkan — terutamanya apabila kecekapan kos adalah keutamaan. Bagi pasukan yang memerlukan keunggulan mutlak dalam setiap penanda aras khusus tanpa mengira kos, tawaran premium mungkin masih menunjukkan kelebihan tambahan; tetapi pertukaran kos/prestasi menjadikan M2.5 menarik untuk penggunaan produksi dalam banyak senario dunia sebenar.
Pembangun boleh mengakses MInimax-M2.5 melalui CometAPI sekarang. Untuk bermula, terokai keupayaan model dalam Playground dan rujuk API guide untuk arahan terperinci. Sebelum mengakses, sila pastikan anda telah log masuk ke CometAPI dan memperoleh kunci API. CometAPI menawarkan harga jauh lebih rendah daripada harga rasmi untuk membantu anda berintegrasi.
Sedia untuk bermula?→ Daftar untuk glm-5 hari ini
Jika anda ingin mengetahui lebih banyak petua, panduan dan berita tentang AI ikuti kami di VK, X dan Discord!
