MiniMax, la startup cinese di intelligenza artificiale, ha rilasciato pubblicamente i pesi e gli strumenti per MiniMax M2, il suo più recente modello di linguaggio di grandi dimensioni, progettato specificamente per flussi di lavoro di codifica e l'utilizzo di strumenti agentici. L'azienda afferma che M2 è progettato come un efficiente mix di esperti (MoE) che offre prestazioni di codifica e agenti di alto livello a una frazione del costo di modelli proprietari comparabili. Spiegherò perché MiniMax M2 è il re del rapporto costo-efficacia in termini di funzionalità, prestazioni di riferimento, architettura e costi.
Che cos'è MiniMax M2?
MiniMax M2 è l'ultimo modello di linguaggio di grandi dimensioni open source di MiniMax, pensato principalmente per codifica, flussi di lavoro degli agenti in più fasi e chiamata degli strumentiIl modello utilizza un'architettura Mixture-of-Experts: ha una dimensione molto ampia totale impronta dei parametri, ma solo un numero modesto di parametri è attivato per token durante l'inferenza: un design che riduce i costi e la latenza dell'inferenza, preservando al contempo un ragionamento efficace e una capacità di codifica.
Numeri chiave (come pubblicati)
- Budget totale dei parametri: ~230 miliardi (totale).
- Parametri attivati/effettivi per token: ~10 miliardi (attivati).
- Finestra di contesto (segnalata): fino all ~204,800 token
- Licenza: MIT (pesi open source).
- Affermazioni su costi e velocità: Il suo costo per token è pari solo all'8% di quello di Anthropic Claude Sonnet e la sua velocità è circa il doppio.
Quali sono le caratteristiche principali di MiniMax M2?
Comportamento agente/orientato agli strumenti
MiniMax M2 Viene fornito con supporto esplicito per la chiamata di strumenti, prompt strutturati e modelli di ragionamento → azione → verifica interlacciati, semplificando la creazione di agenti autonomi che richiamano API esterne, eseguono codice o gestiscono terminali. Diverse ricette di integrazione sono mirate ai runtime degli agenti e agli stack vLLM/accelerate.
Ottimizzato per la codifica e le attività multi-file
I benchmark riportati su Hugging Face e le analisi di terze parti mostrano ottime prestazioni nelle suite di test orientate agli sviluppatori (test unitari, simulazione di terminale, sintesi multi-file), dove M2 ottiene punteggi elevati rispetto ad altri modelli aperti e chiusi. Ciò è in linea con l'enfasi dichiarata di MiniMax sugli strumenti per sviluppatori e sugli assistenti alla codifica.
Efficienza della miscela sparsa di esperti (MoE)
Piuttosto che un singolo set di parametri denso, MiniMax M2 utilizza un sparsa miscela di esperti strategia di routing in modo che solo un sottoinsieme dell'intera banca di parametri venga attivato per token. Ciò produce un conteggio totale di parametri elevato ma un numero molto più piccolo attivato impronta dei parametri durante l'inferenza, migliorando l'efficienza in termini di costi e latenza per molti carichi di lavoro.
Come funziona internamente MiniMax M2?
Architettura di alto livello
Secondo le informazioni tecniche e i resoconti indipendenti di MiniMax, MiniMax M2 è implementato come un trasformatore MoE sparso con le seguenti decisioni progettuali ampiamente riportate:
- Molto grande totale conteggio dei parametri (riportato nella stampa come nell'ordine di centinaia di miliardi), con solo un sottoinsieme di esperti attivati per token (La stampa cita esempi come 230 miliardi totali con circa 10 miliardi attivi per inferenza nei primi rapporti). Questo è il classico compromesso del Ministero dell'Energia: aumentare la capacità senza i costi di inferenza lineare.
- Routing: routing esperto top-k (Top-2 o Top-K) che invia ogni token a un numero limitato di esperti in modo che il carico di elaborazione sia sparso e prevedibile.
- Codifica dell'attenzione e della posizione: modelli di attenzione ibridi (ad esempio, combinazioni di kernel di attenzione densi ed efficienti) e codifiche posizionali moderne in stile rotativo o RoPE sono menzionati nella documentazione del modello della comunità e nella scheda del modello Hugging Face. Queste scelte migliorano il comportamento a lungo contesto, importante per la codifica multi-file e la memoria dell'agente.
Perché il MoE sparso aiuta i flussi di lavoro agentici
I flussi di lavoro agentici richiedono in genere una combinazione di ragionamento, generazione di codice, orchestrazione di strumenti e pianificazione con stato. Con MoE, MiniMax M2 può permettersi molti sottomoduli di esperti specializzati (ad esempio, esperti più esperti di codice, esperti specializzati nella formattazione degli strumenti, esperti per il recupero dei dati) attivando solo gli esperti necessari per ciascun token. Questa specializzazione migliora sia la produttività che la correttezza per le attività composte, riducendo al contempo i costi di inferenza rispetto a un modello denso uniformemente ampio.
Note di formazione e messa a punto (pubblicate da MiniMax)
MiniMax cita un mix di codice, ottimizzazione delle istruzioni, testo web e set di dati di cicli di agenti per l'istruzione e la fluidità degli strumenti di M2.
Perché MoE per agenti e codice?
MoE consente di aumentare la capacità del modello (per un ragionamento migliore e una capacità multimodale) senza aumentare linearmente i FLOP di inferenza per ciascun token. Per gli agenti e gli assistenti di programmazione, che spesso eseguono numerose query brevi e interattive e chiamano strumenti esterni, l'attivazione selettiva di MoE mantiene la latenza e la bolletta del cloud ragionevoli, pur mantenendo i vantaggi di capacità di un modello molto ampio.
Prestazioni di riferimento
Secondo le valutazioni indipendenti di Artificial Analysis, un'organizzazione di ricerca e benchmark di modelli di intelligenza artificiale generativa di terze parti, M2 si classifica attualmente al primo posto tra tutti i sistemi ponderati open source a livello globale nell'"Intelligence Index", una misura completa delle prestazioni di ragionamento, codifica ed esecuzione delle attività.

La scheda modello di MiniMax mostra risultati comparativi tra codifica / agentico suite di benchmark (SWE-bench, Terminal-Bench, BrowseComp, GAIA, τ²-Bench, ecc.). Nelle tabelle pubblicate, M2 mostra punteggi elevati nelle attività di codifica e negli strumenti multi-step, mentre MiniMax evidenzia punteggi compositi di intelligence competitiva/agentica rispetto ad altri modelli aperti.
Questi punteggi lo collocano al livello o quasi dei migliori sistemi proprietari come GPT-5 (thinking) e Claude Sonnet 4.5, rendendo MiniMax-M2 il modello aperto con le prestazioni più elevate fino ad oggi nelle attività di invocazione di agenti e strumenti nel mondo reale.

MiniMax-M2 raggiunge prestazioni eccellenti o quasi eccellenti in molte categorie:
- SWE-bench Verificato: 69.4 — vicino al 74.9 di GPT-5
- ArtifactsBench: 66.8 — superiore a Claude Sonnet 4.5 e DeepSeek-V3.2
- τ²-Bench: 77.2 — si avvicina agli 80.1 del GPT-5
- GAIA (solo testo): 75.7 — superando DeepSeek-V3.2
- BrowseComp: 44.0 — notevolmente più forte di altri modelli aperti
- FinSearchComp-global: 65.5 — il migliore tra i sistemi open-weight testati
Costo e prezzi
MiniMax elenca pubblicamente un prezzo API molto competitivo di $ 0.30 per 1,000,000 di token di input e al $ 1.20 per 1,000,000 di token in uscitaL'azienda segnala inoltre una cifra di throughput di inferenza (TPS) sul suo endpoint ospitato di ~100 token/sec (e afferma che lo stanno migliorando). CometAPI offre uno sconto del 20% sul prezzo ufficiale per l'accesso all'API MiniMax M2.
Interpretazione rapida
- I token di input sono estremamente economici per token rispetto a molti modelli commerciali; i token di output sono più costosi, ma comunque bassi rispetto a molte alternative chiuse.
- La velocità effettiva (token/sec) e la latenza dipenderanno fortemente dalle scelte di distribuzione (hosted vs self-hosted, tipo di GPU, batching, quantizzazione). Utilizzare il TPS pubblicato come base di riferimento solo per la pianificazione delle API ospitate.
Quali sono i migliori casi d'uso per MiniMax M2?
1) Assistenti sviluppatori end-to-end (creazione del codice → esecuzione → correzione → verifica)
MiniMax M2 è progettato appositamente per modifiche multi-file, cicli di compilazione/esecuzione/correzione e automazione CI/IDE, dove il modello deve memorizzare ampie basi di codice o lunghe trascrizioni di terminali e orchestrare le chiamate agli strumenti (build, test, lint, git). I benchmark e i primi test della community lo collocano ai vertici tra le suite di codifica/agentic.
Flusso tipico: recupera il repository → esegui i test all'interno della sandbox → analizza gli errori → produci patch → esegui nuovamente i test → apri PR se verde.
2) Agenti multi-step e RPA (strumenti + memoria)
Le applicazioni agentiche che necessitano di pianificazione, invocazione di strumenti e ripristino (navigazione web, terminale, database, API personalizzate) traggono vantaggio dal contesto lungo e dalla chiamata strutturata di funzioni/strumenti. La capacità di M2 di gestire contesti lunghi consente di conservare piani, log e stati in memoria senza ricorrere a un recupero esterno aggressivo.
3) Ragionamento su documenti lunghi e supporto clienti (manuali, manuali)
Poiché M2 supporta contesti molto ampi, è possibile alimentare interi manuali di prodotto, playbook o lunghe cronologie di conversazioni utente senza dover ricorrere a pesanti suddivisioni in blocchi, ideale per l'automazione del supporto ricco di contesto, il ragionamento sulle policy e i controlli di conformità.
4) Ricerca e sperimentazione (pesi aperti, uso permissivo)
Grazie ai pesi aperti su Hugging Face, è possibile eseguire esperimenti (finetuning personalizzato, ricerca MoE, nuove strategie di routing o meccanismi di sicurezza) localmente o su cluster privati. Questo rende M2 interessante per laboratori e team che desiderano il pieno controllo.
Consigli pratici per ingegneri e team di prodotto
Se vuoi una sperimentazione veloce: Utilizza l'API cloud MiniMax (compatibile con Anthropic/OpenAI). Rimuove l'attrito dell'infrastruttura locale e ti offre accesso immediato alle chiamate degli strumenti e alle funzionalità di contesto esteso.
Se hai bisogno di controllo e ottimizzazione dei costi: Scarica i pesi da Hugging Face e distribuiscili con vLLM o SGLang. Investi in ingegneria per lo sharding MoE e un'attenta messa a punto dell'inferenza. Testa memoria, costi e latenza in base al tuo carico di lavoro reale (agenti multi-turn e attività di codice multi-file).
Test e sicurezza: Esegui test red-team, filtri di sicurezza e validazione degli strumenti. I pesi aperti accelerano la ricerca, ma consentono anche ai malintenzionati di iterare rapidamente; crea rilevatori e controlli human-in-the-loop dove necessario.
Conclusione
MiniMax M2 rappresenta un momento significativo nell'ecosistema LLM open source: un modello di grandi dimensioni, incentrato sugli agenti e con licenza permissiva, che dà priorità alla codifica e all'utilizzo degli strumenti, puntando al contempo a mantenere i costi di inferenza praticabili attraverso un routing MoE sparso. Per le organizzazioni che sviluppano strumenti di sviluppo, agenti autonomi o team di ricerca che necessitano di accedere ai pesi per la messa a punto, M2 offre un'opzione interessante e immediatamente utilizzabile, a condizione che il team sia preparato a gestire la complessità del deployment MoE.
Come accedere all'API MiniMax M2
CometAPI è una piattaforma API unificata che aggrega oltre 500 modelli di intelligenza artificiale (IA) di provider leader, come la serie GPT di OpenAI, Gemini di Google, Claude di Anthropic, Midjourney, Suno e altri, in un'unica interfaccia intuitiva per gli sviluppatori. Offrendo autenticazione, formattazione delle richieste e gestione delle risposte coerenti, CometAPI semplifica notevolmente l'integrazione delle funzionalità di IA nelle tue applicazioni. Che tu stia sviluppando chatbot, generatori di immagini, compositori musicali o pipeline di analisi basate sui dati, CometAPI ti consente di iterare più velocemente, controllare i costi e rimanere indipendente dal fornitore, il tutto sfruttando le più recenti innovazioni nell'ecosistema dell'IA.
Gli sviluppatori possono accedere API Minimax M2 tramite CometAPI, l'ultima versione del modello è sempre aggiornato con il sito ufficiale. Per iniziare, esplora le capacità del modello nel Parco giochi e consultare il Guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l'accesso a CometAPI e di aver ottenuto la chiave API. CometaAPI offrire un prezzo molto più basso rispetto al prezzo ufficiale per aiutarti a integrarti.
Pronti a partire? → Iscriviti oggi a CometAPI !
Se vuoi conoscere altri suggerimenti, guide e novità sull'IA seguici su VK, X e al Discordia!
