MiniMax-M2.7 è l’evoluzione della serie M2 di MiniMax, progettata per il ragionamento ad alta efficienza, il coding e i flussi di lavoro orientati agli agenti. Sulla base del successo di M2 e M2.5, introduce miglioramenti nella generazione in batch, nell’efficienza dei costi e nella distribuzione API scalabile (ad es., tramite CometAPI). È destinato a casi d’uso di AI enterprise, tra cui automazione, ragionamento a più fasi e generazione di contenuti su larga scala.
Che cos’è MiniMax-M2.7?
Un modello di punta pensato per coding e agenti
MiniMax presenta MiniMax-M2.7 come un modello di testo di punta per flussi di lavoro impegnativi di coding, agenti e produttività.
MiniMax-M2.7 è l’ultima generazione di large language model (LLM) rilasciata da MiniMax a marzo 2026 come parte della famiglia M2. È progettato come un modello AI ad alte prestazioni, conveniente e orientato agli agenti che estende le capacità del suo predecessore, M2.5, introducendo al contempo miglioramenti nel ragionamento, nei cicli di auto‑miglioramento e nell’esecuzione di attività nel mondo reale.
M2.5 ha già dimostrato prestazioni vicine allo stato dell’arte (SOTA) (ha ottenuto 80.2% su SWE-Bench Verified) pur essendo drasticamente più economico dei concorrenti, raggiungendo risultati comparabili a modelli come GPT, Gemini e Claude a meno di un decimo del costo.
M2.7 costruisce su queste basi, enfatizzando:
- Cicli di agenti autonomi
- Costo per iterazione ridotto
- Maggiore coerenza di ragionamento
- Migliore prontezza per la produzione
Autoevolutivo?
M2.7 è stato costruito con un processo di sviluppo che gli ha consentito di aggiornare la propria memoria, creare skill nel suo framework e migliorare il processo di apprendimento in base ai risultati degli esperimenti. In parole semplici, l’azienda segnala che M2.7 è stato addestrato e ottimizzato con un forte loop agentico in mente, non solo con una ricetta per benchmark di chat statici.
5 caratteristiche di MiniMax-M2.7
Comportamento d’ingegneria del software più solido
MiniMax-M2.7 è particolarmente forte nella consegna end‑to‑end di progetti, nell’analisi dei log, nella risoluzione dei bug, nella sicurezza del codice e nei compiti di machine learning. Ciò rende il modello rilevante non solo per la generazione di codice, ma anche per gli aspetti più fastidiosi e dispendiosi in termini di tempo del lavoro d’ingegneria: tracciare i guasti, navigare in grandi repository e assemblare più passaggi in un risultato funzionante. M2.7 mantiene un tasso di aderenza alle skill del 97% lavorando con oltre 40 skill complesse, ciascuna delle quali supera i 2,000 token, un dettaglio che ne indica l’uso previsto in flussi di lavoro a lungo orizzonte.
Una grande finestra di contesto per compiti lunghi
Il modello MiniMax-M2.7 ha una finestra di contesto da 204,800 token, una caratteristica pratica importante per chi gestisce prompt lunghi, codebase multi‑file o sessioni di agenti estese. Il modello M2.7 standard si attesta intorno a 60 token al secondo e una variante “highspeed” intorno a 100 token al secondo. Questa combinazione è importante perché una finestra di contesto ampia da sola non basta; gli utenti hanno bisogno anche di throughput utilizzabile se vogliono che il modello resti reattivo in un flusso di lavoro reale.
Anche la modifica in Office e il lavoro sui documenti fanno parte della storia
MiniMax sottolinea anche che M2.7 non riguarda solo il coding. L’azienda afferma che il modello ha migliorato la modifica complessa su Excel, PowerPoint e Word, con revisioni su più turni e modifiche ad alta fedeltà. Riporta inoltre un GDPval‑AA ELO di 1495 e afferma che questo è il più alto tra i modelli open source. È un’affermazione forte, che è meglio leggere come la valutazione di MiniMax sulla competenza del modello in ambito produttività d’ufficio più che come un consenso di settore, ma resta importante perché amplia il rilascio oltre l’ingegneria del software.
Uso degli strumenti e interazione con l’ambiente sono temi centrali di progettazione
MiniMax evidenzia che M2.7 può interagire con ambienti complessi e lavorare con un ampio set di skill, in linea con la più ampia strategia dell’azienda sugli agenti. M2.7 viene presentato come dotato di una forte comprensione del codice, dialogo multi‑turno e capacità di ragionamento, ed è proposto come adatto ad ambienti ricchi di strumenti piuttosto che a semplici chat a turno singolo. In termini pratici, ciò significa che il modello viene venduto come controllore o collaboratore, non come un semplice generatore di testo.
Meccanismi di auto‑miglioramento
Un’innovazione chiave in M2.7 sono i cicli di auto‑miglioramento del modello:
- Raffinamento iterativo del ragionamento
- Correzioni basate sul feedback
- Riduzione dei tassi di allucinazione
Questo abilita output più affidabili in:
- Coding
- Ricerca
- Flussi di lavoro enterprise
Accesso e prezzo di MiniMax‑M2.7
MiniMax‑M2.7 è disponibile tramite la Open Platform di MiniMax ed è anche elencato su CometAPI, quindi ci sono due percorsi di accesso diretti a seconda che si desideri lavorare direttamente con MiniMax o tramite un aggregatore di API. La documentazione di MiniMax afferma che M2.7 può essere utilizzato con opzioni di fatturazione come Token Plan e Pay‑As‑You‑Go, e raccomanda specificamente l’uso di M2.7 in flussi di lavoro per strumenti di coding come Claude Code.
Uno dei vantaggi più dirompenti di MiniMax è il pricing. Rispetto ai concorrenti: fino a 10×–20× più economico dei modelli frontier leader. M2.7 continua questa tendenza, rendendolo:
- Ideale per la distribuzione su larga scala
- Adatto ad agenti a lunga esecuzione
- Accessibile per startup e aziende
In CometAPI, Minimax M2.7 l’API ha un prezzo scontato del 20%:
| Comet Price (USD / M Tokens) | Official Price (USD / M Tokens) | Discount |
|---|---|---|
| Input:$0.24/M; Output:$0.96/M | Input:$0.3/M; Output:$1.2/M | -20% |
MiniMax‑M2.7 è disponibile tramite la Open Platform di MiniMax ed è anche elencato su CometAPI, quindi ci sono due percorsi di accesso diretti a seconda che si desideri lavorare direttamente con MiniMax o tramite un aggregatore di API. La documentazione di MiniMax afferma che M2.7 può essere utilizzato con opzioni di fatturazione come Token Plan e Pay‑As‑You‑Go, e raccomanda specificamente l’uso di M2.7 in flussi di lavoro per strumenti di coding come Claude Code.
Quindi la conclusione pratica è semplice: se vuoi il percorso ufficiale più diretto, usa la Open Platform di MiniMax; se desideri un livello di accesso di terze parti più economico, CometAPI attualmente pubblicizza prezzi per token più bassi per M2.7.
Conclusione
MiniMax‑M2.7 appare come un passo serio nella roadmap dell’azienda per i modelli orientati agli agenti, enfatizzando ingegneria del software, produttività d’ufficio, interazione con ambienti complessi e una storia di addestramento improntata all’auto‑miglioramento. Le affermazioni sui benchmark sono abbastanza forti da meritare attenzione, e il test indipendente Kilo suggerisce che il modello può reggere il confronto in scenari reali di coding‑agent. Per gli sviluppatori, il modo più sensato di pensare a M2.7 è come a un modello capace di lettura profonda e di utilizzo degli strumenti che premia istruzioni chiare, flussi di lavoro strutturati e un’attenta gestione dei costi.
Gli sviluppatori possono accedere a MiniMax-M2.7 tramite CometAPI (CometAPI offre un prezzo molto inferiore a quello ufficiale per facilitare l’integrazione) già da ora. Prima di accedere, assicurati di aver effettuato l’accesso a CometAPI e di aver ottenuto la chiave API. Pronto per iniziare?
