Mistral AI lancia Magistral, il suo primo modello open source focalizzato sull'inferenza

CometAPI
AnnaJun 12, 2025
Mistral AI lancia Magistral, il suo primo modello open source focalizzato sull'inferenza

Annunciata la startup francese di intelligenza artificiale Mistral AI Magistrale, la sua prima famiglia di modelli linguistici incentrati sul ragionamento, che segna l'ingresso dell'Europa nell'emergente spazio dei modelli che generano risposte attraverso un ragionamento esplicito a più fasi, basato su una "catena di pensiero", piuttosto che su una previsione basata esclusivamente su pattern. Il lancio sottolinea la strategia di Mistral di differenziarsi attraverso principi open source e l'impegno per un ragionamento basato sull'intelligenza artificiale trasparente e verificabile, rafforzato dall'alto sostegno del presidente francese Emmanuel Macron.

Magistral è disponibile in due varianti:

  • Magistrale Piccolo, un modello da 24 miliardi di parametri rilasciato sotto licenza Apache 2.0 e scaricabile gratuitamente tramite Hugging Face;
  • Mezzo magistrale, un'offerta più potente, di livello aziendale, con funzionalità di inferenza migliorate, disponibile tramite l'API commerciale di Mistral.

Entrambe le versioni eccellono in attività specifiche di dominio, che vanno dalle simulazioni fisiche alla pianificazione strategica, e sono ottimizzate per fornire un ragionamento trasparente e passo dopo passo, che gli utenti possono ispezionare e verificare. A differenza di molti modelli linguistici di grandi dimensioni che operano prevalentemente in inglese, Magistral supporta il ragionamento in diverse lingue principali, tra cui inglese, francese, spagnolo, arabo, tedesco, italiano, russo e cinese semplificato, consentendo l'elaborazione delle query nel loro contesto linguistico nativo, per una maggiore accuratezza e sfumature culturali.

Tecnologie e architettura di base

Supporto nativo della catena di pensiero

Magistral è costruito da zero per supportare Catena di pensiero (CoT) ragionamento, consentendo la generazione automatica di catene di ragionamento chiare e interpretabili. Questo è essenziale per i domini ad alto rischio in cui fiducia, spiegabilità e rigore logico sono fondamentali.

  • Progettazione orientata al ragionamento: Il modello è ottimizzato specificamente per attività logiche che prevedono più passaggi.
  • Generazione del monologo interiore: Gli output includono un dettagliato percorso di ragionamento interno, rendendo tracciabile ogni conclusione.
  • Formattazione dei tag: Le bozze di ragionamento sono incapsulate in <think>...</think> blocchi, separando nettamente i processi di pensiero dai riassunti finali per migliorarne l'interpretabilità.

Funzionalità esclusive per le aziende: risposte rapide + modalità di riflessione

Disponibile tramite il Il Cat piattaforma aziendale, Mezzo magistrale introduce:

  • Risposte rapide: Velocità di inferenza fulminee: fino a 10 volte più veloci rispetto ai principali concorrenti come ChatGPT.
  • Modalità di pensiero: Ottimizzato per conversazioni multi-turn, consentendo un ragionamento efficiente avanti e indietro.

Punti salienti delle prestazioni:

  • Output quasi istantaneo per attività di ragionamento strutturato (ad esempio, alberi decisionali, dimostrazioni formali, pianificazione del software)
  • Mantiene un'elevata accuratezza e una coerenza logica costante tra le sessioni

Ragionamento trasparente e verificabile

Ogni risposta generata da Magistral include un percorso di ragionamento chiaramente tracciabile, rendendolo particolarmente adatto a settori regolamentati quali:

  • Servizi legali
  • Conformità finanziaria
  • Sanità e diagnostica

Disponibilità e accesso

  • Magistrale Piccolo può essere scaricato immediatamente da Hugging Face nel repository mistralai/Magistral-Small-2506.
  • Mezzo magistrale è accessibile tramite l'API aziendale di Mistral AI, con prezzi e opzioni di distribuzione dettagliati sul sito web di Mistral.

Con Magistral, Mistral AI rivendica il ruolo dell'Europa nella prossima ondata di innovazione dell'intelligenza artificiale, passando dalla semplice scala al ragionamento sofisticato, e invita sviluppatori e aziende di tutto il mondo a sfruttare modelli che pensano in modo trasparente come gli esseri umani.

Conclusione

Mistral AI, valutata circa 6.2 miliardi di dollari nel suo ultimo round di finanziamento, posiziona Magistral come concorrente diretto dei modelli di ragionamento di giganti tecnologici statunitensi come OpenAI e Google, nonché di concorrenti cinesi emergenti come DeepSeek e Alibaba. Sostenendo la distribuzione open source e lo sviluppo in Europa, l'azienda mira a colmare il divario con i concorrenti più finanziati, promuovendo al contempo un ecosistema di trasparenza e collaborazione.

Iniziamo

CometAPI fornisce un'interfaccia REST unificata che aggrega centinaia di modelli di intelligenza artificiale, sotto un endpoint coerente, con gestione integrata delle chiavi API, quote di utilizzo e dashboard di fatturazione. Invece di dover gestire URL e credenziali di più fornitori.

Gli sviluppatori possono accedere API Mistral 7B(nome del modello: mistral-large-latest; mistral-medium-latest; mistral-small-latest) Attraverso CometaAPI, gli ultimi modelli elencati sono quelli aggiornati alla data di pubblicazione dell'articolo. Per iniziare, esplora le capacità del modello in Parco giochi e consultare il Guida API per istruzioni dettagliate. Prima di accedere, assicurati di aver effettuato l'accesso a CometAPI e di aver ottenuto la chiave API. CometaAPI offrire un prezzo molto più basso rispetto al prezzo ufficiale per aiutarti a integrarti.

L'ultima integrazione Magistrale L'API apparirà presto su CometAPI, quindi rimanete sintonizzati! Mentre finalizziamo Magistrale Caricamento del modello, esplora i nostri altri modelli come API di anteprima di Gemini 2.5 Pro e al API di Claude Opus 4 ecc. sul Pagina dei modelli oppure provali nel Parco giochi AI.

SHARE THIS BLOG

500+ Modelli in Una API

Fino al 20% di sconto