Mistral AI lance Magistral, son premier modèle open source axé sur l'inférence

CometAPI
AnnaJun 12, 2025
Mistral AI lance Magistral, son premier modèle open source axé sur l'inférence

Annonce de la start-up française d'IA Mistral AI magistral, sa première famille de modèles de langage axés sur le raisonnement, marquant l'entrée de l'Europe dans l'univers émergent des modèles générant des réponses par un raisonnement explicite en plusieurs étapes, par « chaîne de pensée », plutôt que par une simple prédiction basée sur des modèles. Ce lancement souligne la stratégie de Mistral visant à se différencier par des principes open source et un engagement en faveur d'un raisonnement IA transparent et vérifiable, renforcé par le soutien important du président français Emmanuel Macron.

Magistral est disponible en deux variantes :

  • Magistral Petit, un modèle de 24 milliards de paramètres publié sous la licence Apache 2.0 et téléchargeable gratuitement via Hugging Face ;
  • Médium Magistral, une offre plus puissante de niveau entreprise avec des capacités d'inférence améliorées, disponible via l'API commerciale de Mistral.

Les deux versions excellent dans les tâches spécifiques à un domaine, allant des simulations physiques à la planification stratégique, et sont optimisées pour fournir un raisonnement transparent et détaillé, que les utilisateurs peuvent inspecter et vérifier. Contrairement à de nombreux modèles linguistiques volumineux fonctionnant principalement en anglais, Magistral prend en charge le raisonnement dans plusieurs langues majeures, dont l'anglais, le français, l'espagnol, l'arabe, l'allemand, l'italien, le russe et le chinois simplifié, permettant ainsi de traiter les requêtes dans leur contexte linguistique natif pour une précision et une nuance culturelles accrues.

Technologies et architecture de base

Prise en charge native de la chaîne de pensée

Magistral est construit dès le départ pour soutenir Chaîne de pensée (CoT) Raisonnement, permettant la génération automatique de chaînes de raisonnement claires et interprétables. Ceci est essentiel dans les domaines à enjeux élevés où la confiance, l'explicabilité et la rigueur logique sont primordiales.

  • Conception orientée raisonnement : Le modèle est spécialement conçu pour les tâches logiques en plusieurs étapes.
  • Génération du monologue intérieur : Les résultats incluent un chemin de raisonnement interne détaillé, rendant chaque conclusion traçable.
  • Formatage des balises : Les brouillons de raisonnement sont encapsulés dans <think>...</think> blocs, séparant clairement les processus de pensée des résumés finaux pour améliorer l'interprétabilité.

Fonctionnalités exclusives aux entreprises : réponses Flash et mode de réflexion

Disponible via le le chat plateforme d'entreprise, Médium Magistral introduit:

  • Réponses Flash : Des vitesses d'inférence ultra-rapides, jusqu'à Déploiements 10x plus rapides que les principaux concurrents tels que ChatGPT.
  • Mode de réflexion : Optimisé pour les conversations à plusieurs tours, permettant un raisonnement efficace dans les deux sens.

Points forts de la performance:

  • Sortie quasi instantanée pour les tâches de raisonnement structurées (par exemple, arbres de décision, preuves formelles, planification logicielle)
  • Maintient une grande précision et une cohérence logique constante entre les sessions

Raisonnement transparent et vérifiable

Chaque réponse générée par Magistral comprend un piste de raisonnement clairement traçable, ce qui le rend particulièrement adapté aux industries réglementées telles que :

  • Services juridiques
  • Conformité financière
  • Santé et diagnostic

Disponibilité et accès

  • Magistral Petit peut être téléchargé immédiatement depuis Hugging Face dans le référentiel mistralai/Magistral-Small-2506.
  • Médium Magistral est accessible via l'API d'entreprise de Mistral AI, avec des options de tarification et de déploiement détaillées sur le site Web de Mistral.

Avec Magistral, Mistral AI renforce la position de l'Europe dans la prochaine vague d'innovation en matière d'IA, passant de l'échelle pure à un raisonnement sophistiqué, et invite les développeurs et les entreprises du monde entier à exploiter des modèles qui pensent de manière aussi transparente que les humains.

Conclusion

Mistral AI, valorisée à environ 6.2 milliards de dollars lors de sa dernière levée de fonds, positionne Magistral comme un concurrent direct des modèles de raisonnement des géants technologiques américains comme OpenAI et Google, ainsi que des nouveaux concurrents chinois comme DeepSeek et Alibaba. En promouvant la distribution open source et le développement en Europe, l'entreprise vise à réduire l'écart avec ses concurrents mieux financés tout en favorisant un écosystème de transparence et de collaboration.

Pour commencer

CometAPI fournit une interface REST unifiée qui regroupe des centaines de modèles d'IA sous un point de terminaison cohérent, avec gestion intégrée des clés API, des quotas d'utilisation et des tableaux de bord de facturation. Plus besoin de jongler avec plusieurs URL et identifiants de fournisseurs.

Les développeurs peuvent accéder API Mistral 7B(nom du modèle : mistral-large-latest; mistral-medium-latest; mistral-small-latest) À travers API CometLes derniers modèles listés sont ceux en vigueur à la date de publication de l'article. Pour commencer, explorez les fonctionnalités du modèle dans la section cour de récréation et consultez le Guide de l'API Pour des instructions détaillées, veuillez vous connecter à CometAPI et obtenir la clé API avant d'y accéder. API Comet proposer un prix bien inférieur au prix officiel pour vous aider à vous intégrer.

La dernière intégration magistral L'API apparaîtra bientôt sur CometAPI, alors restez à l'écoute ! Pendant que nous finalisons magistral Téléchargez le modèle, explorez nos autres modèles tels que Aperçu de l'API Gemini 2.5 Pro et API Claude Opus 4 etc. sur le Page des modèles ou essayez-les dans le Aire de jeux IA.

SHARE THIS BLOG

500+ Modèles en Une API

Jusqu'à 20% de réduction