Çinli yapay zeka girişimi MiniMax, ağırlıkları ve takımları kamuoyuna açıkladı MiniMax M2, özellikle kodlama iş akışları ve aracı araç kullanımı için tasarlanmış en yeni büyük dil modeli. Şirket, M2'nin, benzer tescilli modellerin maliyetinin çok daha altında, üst düzey kodlama ve aracı performansı sunan verimli bir uzmanlar karışımı (MoE) tasarımı olarak üretildiğini belirtiyor. MiniMax M2'nin neden özellikler, kıyaslama performansı, mimari ve maliyet açısından maliyet etkinliği açısından kral olduğunu açıklayacağım.
MiniMax M2 nedir?
MiniMax M2, MiniMax'ın öncelikle şu amaçlar için tasarlanmış en son açık kaynaklı büyük dil modelidir: kodlama, çok adımlı aracı iş akışları ve araç çağırmaModel, Uzmanlar Karışımı mimarisini kullanır: çok büyük bir Genel Toplam parametre ayak izi, ancak yalnızca mütevazı sayıda parametre var aktive çıkarım sırasında belirteç başına — güçlü muhakeme ve kodlama yeteneğini korurken çıkarım maliyetini ve gecikmeyi azaltan bir tasarım.
Önemli başlık numaraları (yayınlandığı şekliyle)
- Toplam parametre bütçesi: ~230 milyar (toplam).
- Jeton başına etkinleştirilen/etkili parametreler: ~10 milyar (aktifleştirildi).
- Bağlam penceresi (bildirildi): kadar ~204,800 token
- Lisans: MIT (açık kaynak ağırlıkları).
- Maliyet ve hız iddiaları: Jeton başına maliyeti Anthropic Claude Sonnet'in yalnızca %8'i ve hızı yaklaşık iki katıdır.
MiniMax M2'nin öne çıkan özellikleri nelerdir?
Aracı/araç odaklı davranış
MiniMax M2 Araç çağırma, yapılandırılmış komut istemleri ve iç içe geçmiş akıl yürütme → eylem → doğrulama kalıpları için açık destekle birlikte gelir ve bu sayede harici API'leri çağıran, kod çalıştıran veya terminalleri işleten otonom aracılar oluşturmayı kolaylaştırır. Çeşitli entegrasyon tarifleri, aracı çalışma zamanlarını ve vLLM/accelerate yığınlarını hedefler.
Kodlama ve çoklu dosya görevleri için optimize edildi
Hugging Face ve üçüncü taraf analizleri üzerinde yapılan kıyaslamalar, geliştirici odaklı test paketlerinde (birim testleri, terminal simülasyonu, çoklu dosya sentezi) güçlü bir performans gösteriyor. Bu testlerde M2, diğer açık ve kapalı modellere kıyasla oldukça yüksek puanlar alıyor. Bu durum, MiniMax'ın geliştirici araçları ve kodlama yardımcılarına odaklanan ürün vurgusuyla örtüşüyor.
Seyrek Uzman Karışımı (MoE) verimliliği
Tek bir yoğun parametre kümesi yerine, MiniMax M2 kullanan bir seyrek Uzman Karışımı Yönlendirme stratejisi, her belirteç için yalnızca tam parametre bankasının bir alt kümesinin etkinleştirilmesini sağlar. Bu, büyük bir toplam parametre sayısı ancak çok daha küçük bir aktive çıkarım sırasında parametre ayak izi — birçok iş yükü için maliyet ve gecikme verimliliğini artırır.
MiniMax M2 dahili olarak nasıl çalışır?
Üst düzey mimari
MiniMax'ın teknik açıklamalarına ve bağımsız raporlamasına göre, MiniMax M2 olarak uygulanır seyrek MoE trafosu Yaygın olarak bildirilen aşağıdaki tasarım kararlarıyla:
- Çok büyük Genel Toplam parametre sayısı (basın haberlerinde yüz milyarlarca civarında olduğu bildirilmektedir) token başına yalnızca uzmanların bir alt kümesi etkinleştirildi (Basın, ilk raporlarda çıkarım başına yaklaşık 10 milyar aktif olmak üzere toplam 230 milyar gibi örneklerden bahsediyor.) Bu, MoE'nin klasik bir uzlaşmasıdır: doğrusal çıkarım maliyeti olmadan ölçek kapasitesi.
- Yönlendirme: Her token'ı az sayıda uzmana gönderen en iyi-k uzman yönlendirmesi (En İyi-2 veya En İyi-K), böylece hesaplama yükü seyrek ve öngörülebilir olur.
- Dikkat ve konum kodlaması: Hibrit dikkat kalıpları (örneğin, yoğun ve verimli dikkat çekirdeklerinin karışımları) ve modern döner veya RoPE tarzı konumsal kodlamalar, topluluk modeli belgelerinde ve Hugging Face model kartında belirtilmiştir. Bu seçenekler, çok dosyalı kodlama ve aracı belleği için önemli olan uzun bağlamlı davranışı iyileştirir.
Seyrek MoE'nin aracı iş akışlarına nasıl yardımcı olduğu
Aracı iş akışları genellikle akıl yürütme, kod oluşturma, araç düzenleme ve durumsal planlamanın bir karışımını gerektirir. MoE ile, MiniMax M2 Her bir jeton için yalnızca ihtiyaç duyulan uzmanları etkinleştirirken, birçok uzmanlaşmış uzman alt modülü (örneğin, kod konusunda daha iyi uzmanlar, araç biçimlendirme konusunda uzmanlaşmış uzmanlar, olgusal bilgi alma uzmanları) sağlayabilir. Bu uzmanlaşma, bileşik görevler için hem verimi hem de doğruluğu artırırken, tekdüze büyük ve yoğun bir modele kıyasla çıkarım maliyetini düşürür.
Eğitim ve ince ayar notları (MiniMax'ın yayınladığı)
MiniMax, M2'nin talimat ve araç akıcılığı için kod, talimat ayarlama, web metni ve aracı döngü veri kümelerinin bir karışımını kullanır.
Ajanlar ve kod için neden MoE?
MoE, her bir belirteç için çıkarım FLOP'larını doğrusal olarak artırmadan model kapasitesini (daha iyi akıl yürütme ve çok modlu yetenek için) artırmanıza olanak tanır. Sık sık kısa ve etkileşimli sorgular yapan ve harici araçları çağıran aracılar ve kodlama yardımcıları için MoE'nin seçici aktivasyonu, çok büyük bir modelin kapasite avantajlarını korurken gecikmeyi ve bulut faturasını makul düzeyde tutar.
Karşılaştırma Performansı
Üçüncü taraf üretken yapay zeka modeli kıyaslama ve araştırma kuruluşu Artificial Analysis'in bağımsız değerlendirmelerine göre, M2 şu anda akıl yürütme, kodlama ve görev yürütme performansının kapsamlı bir ölçüsü olan "Zeka Endeksi"nde küresel olarak tüm açık kaynaklı ağırlıklı sistemler arasında birinci sırada yer alıyor.

MiniMax'ın model kartı, aşağıdakiler genelinde karşılaştırmalı sonuçları gösterir: kodlama / aracılık Karşılaştırma paketleri (SWE-bench, Terminal-Bench, BrowseComp, GAIA, τ²-Bench, vb.) Yayınlanan bu tablolarda M2, kodlama ve çok adımlı araç görevlerinde güçlü puanlar gösterirken, MiniMax diğer açık modellere göre rekabetçi zeka/aracı bileşik puanlarını vurgulamaktadır.
Bu puanlar, MiniMax-M2'yi GPT-5 (düşünme) ve Claude Sonnet 4.5 gibi en iyi tescilli sistemlerin seviyesine veya yakınına yerleştiriyor ve bu da MiniMax-M2'yi gerçek dünya aracı ve araç çağırma görevlerinde bugüne kadarki en yüksek performanslı açık model haline getiriyor.

MiniMax-M2 birçok kategoride en iyi veya en iyiye yakın performansı elde ediyor:
- SWE-bench Doğrulandı: 69.4 — GPT-5'in 74.9'una yakın
- ArtifactsBench: 66.8 — Claude Sonnet 4.5 ve DeepSeek-V3.2'nin üstünde
- τ²-Tezgahı: 77.2 — GPT-5'in 80.1'ine yaklaşıyor
- GAIA (sadece metin): 75.7 — DeepSeek-V3.2'yi geride bırakıyor
- BrowseComp: 44.0 — diğer açık modellerden belirgin şekilde daha güçlü
- FinSearchComp-global: 65.5 — test edilen açık ağırlık sistemleri arasında en iyisi
Maliyet ve Fiyatlandırma
MiniMax, oldukça rekabetçi bir API fiyatını halka açık olarak listeliyor 1,000,000 giriş belirteci başına 0.30 ABD doları ve 1,000,000 çıktı tokeni başına 1.20 ABD dolarıŞirket ayrıca barındırılan uç noktasında bir çıkarım verimi (TPS) rakamı da bildiriyor ~100 token/sn (ve bunu geliştirdiklerini belirtiyor). CometAPI, MiniMax M2 API'sine erişim için resmi fiyattan %20 indirim sunuyor.
Hızlı yorumlama
- Giriş belirteçleri, birçok ticari modele kıyasla belirteç başına son derece ucuzdur; çıktı belirteçleri daha pahalıdır ancak yine de birçok kapalı alternatife kıyasla düşüktür.
- Verim (token/sn) ve gecikme süresi, dağıtım tercihlerine (barındırılan veya kendi kendine barındırılan, GPU türü, toplu işlem, niceleme) büyük ölçüde bağlı olacaktır. Yayınlanan TPS'yi yalnızca barındırılan API planlaması için temel olarak kullanın.
MiniMax M2 için en iyi kullanım durumları nelerdir?
1) Uçtan uca geliştirici yardımcıları (kod yazma → çalıştırma → düzeltme → doğrulama)
MiniMax M2, çoklu dosya düzenlemeleri, derleme/çalıştırma/düzeltme döngüleri ve CI/IDE otomasyonu için özel olarak tasarlanmıştır. Bu otomasyonlarda modelin büyük kod tabanlarını veya uzun terminal transkriptlerini hatırlaması ve araç çağrılarını (derleme, test, lint, git) düzenlemesi gerekir. Karşılaştırmalar ve erken topluluk testleri, onu kodlama/araç paketleri arasında üst sıralara yerleştirmiştir.
Tipik akış: depoyu al → deneme ortamında testleri çalıştır → başarısızlıkları ayrıştır → yama üret → testleri tekrar çalıştır → yeşil ise PR'yi aç.
2) Çok adımlı aracılar ve RPA (araçlar + bellek)
Planlama, araç çağırma ve kurtarma gerektiren aracı uygulamalar (web'de gezinme, terminal, veritabanı, özel API'ler), uzun bağlam ve yapılandırılmış işlev/araç çağırma özelliğinden faydalanır. M2'nin uzun bağlam yeteneği, agresif harici alımlara gerek kalmadan planları, günlükleri ve durumu bellekte tutmanıza olanak tanır.
3) Uzun belgeli muhakeme ve müşteri desteği (oyun kitapları, kılavuzlar)
M2 çok büyük bağlamları desteklediğinden, yoğun parçalama yapmadan tüm ürün kılavuzlarını, oyun kitaplarını veya uzun kullanıcı görüşme geçmişlerini besleyebilirsiniz; bu, bağlam açısından zengin destek otomasyonu, politika gerekçelendirmesi ve uyumluluk kontrolleri için idealdir.
4) Araştırma ve deney (açık ağırlıklar, izin verici kullanım)
Hugging Face'teki açık ağırlıklar sayesinde, yerel olarak veya özel kümeler üzerinde deneyler (özel ince ayar, MoE araştırması, yeni yönlendirme stratejileri veya güvenlik mekanizmaları) çalıştırabilirsiniz. Bu, M2'yi tam kontrol isteyen laboratuvarlar ve ekipler için cazip hale getirir.
Mühendisler ve ürün ekipleri için pratik öneriler
Hızlı denemeler yapmak istiyorsanız: MiniMax bulut API'sini kullanın (Anthropic/OpenAI uyumlu). Yerel altyapı sorunlarını ortadan kaldırır ve araç çağırma ve uzun bağlam özelliklerine anında erişim sağlar.
Kontrol ve maliyet optimizasyonuna ihtiyacınız varsa: Ağırlıkları Hugging Face'den indirin ve vLLM veya SGLang ile kullanın. MoE parçalama ve dikkatli çıkarım ayarlaması için mühendisliğe yatırım yapmayı bekleyin. Belleği, maliyeti ve gecikmeyi gerçek iş yükünüze (çoklu tur aracıları ve çok dosyalı kod görevleri) göre test edin.
Test ve güvenlik: Kendi kırmızı takım testlerinizi, güvenlik filtrelerinizi ve araç doğrulamanızı çalıştırın. Açık ağırlıklar araştırmayı hızlandırırken, kötü niyetli kişilerin de hızla yineleme yapmasına olanak tanır; gerektiğinde dedektörler ve insan müdahaleli kontroller oluşturun.
Sonuç
MiniMax M2, açık kaynaklı LLM ekosisteminde önemli bir anı temsil ediyor: kodlama ve araç kullanımına öncelik verirken, seyrek MoE yönlendirmesiyle çıkarım maliyetini uygulanabilir tutmayı hedefleyen, geniş, aracı merkezli ve izinli lisanslı bir model. Geliştirici araçları, otonom aracılar veya ince ayar için ağırlıklara erişime ihtiyaç duyan araştırma ekipleri oluşturan kuruluşlar için M2, ekibin MoE dağıtım karmaşıklığını yönetmeye hazır olması koşuluyla, etkileyici ve hemen kullanılabilir bir seçenek sunuyor.
MiniMax M2 API'sine Nasıl Erişilir?
CometAPI, OpenAI'nin GPT serisi, Google'ın Gemini, Anthropic'in Claude, Midjourney, Suno ve daha fazlası gibi önde gelen sağlayıcılardan 500'den fazla AI modelini tek bir geliştirici dostu arayüzde toplayan birleşik bir API platformudur. Tutarlı kimlik doğrulama, istek biçimlendirme ve yanıt işleme sunarak CometAPI, AI yeteneklerinin uygulamalarınıza entegrasyonunu önemli ölçüde basitleştirir. İster sohbet robotları, görüntü oluşturucular, müzik bestecileri veya veri odaklı analiz hatları oluşturuyor olun, CometAPI daha hızlı yineleme yapmanızı, maliyetleri kontrol etmenizi ve satıcıdan bağımsız kalmanızı sağlar; tüm bunları yaparken AI ekosistemindeki en son atılımlardan yararlanırsınız.
Geliştiriciler erişebilir Minimax M2 API CometAPI aracılığıyla, en son model versiyonu Resmi web sitesi aracılığıyla sürekli güncellenmektedir. Başlamak için, modelin yeteneklerini keşfedin. Oyun Alanı ve danışın API kılavuzu Ayrıntılı talimatlar için. Erişimden önce, lütfen CometAPI'ye giriş yaptığınızdan ve API anahtarını edindiğinizden emin olun. Kuyrukluyıldız API'si Entegrasyonunuza yardımcı olmak için resmi fiyattan çok daha düşük bir fiyat teklif ediyoruz.
Gitmeye hazır mısınız?→ Bugün CometAPI'ye kaydolun !
Yapay zeka hakkında daha fazla ipucu, kılavuz ve haber öğrenmek istiyorsanız bizi takip edin VK, X ve Katılın!
