le 17 avril 2025: OpenAI a présenté mercredi deux modèles d'IA révolutionnaires, o3 et o4-mini, marquant une avancée significative dans les capacités de raisonnement de l'intelligence artificielle. Ces modèles sont conçus pour améliorer les performances dans les tâches complexes, en intégrant la compréhension visuelle et des compétences avancées en résolution de problèmes.

o3 : Vers un raisonnement de niveau humain
Le modèle o3 est le système de raisonnement le plus sophistiqué d'OpenAI à ce jour. Il a démontré des performances exceptionnelles lors de plusieurs tests de performance :
- L'univers social:J'ai obtenu un score de 96.7 % à l'examen AIME 2024, en ne manquant qu'une seule question.
- Raisonnement scientifique:A obtenu un score de 87.7 % au test de référence GPQA Diamond, en s'attaquant à des problèmes scientifiques de niveau universitaire.
- Génie logiciel:A obtenu une précision de 71.7 % aux tests de codage vérifiés par SWE-Bench.
- Intelligence générale:A dépassé le seuil de ressemblance humaine sur le benchmark ARC-AGI avec un score de 87.5 % dans des paramètres de calcul élevés.
Ces réalisations positionnent o3 comme une étape importante vers l’intelligence artificielle générale (AGI), démontrant sa capacité à s’adapter à de nouvelles tâches au-delà des modèles mémorisés.
Voir aussi GPT-4.1 : Qu'est-ce que c'est et comment l'utiliser ?
o4-mini : efficace et polyvalent
Le modèle o4-mini offre une alternative plus compacte et économique, sans compromis sur les performances. Il excelle dans des tâches telles que les mathématiques, le codage et l'analyse visuelle, ce qui le rend adapté à un large éventail d'applications.
Innovations dans le raisonnement visuel et autonomie améliorée des outils
o3 et o4-mini permettent tous deux de raisonner avec des données visuelles, notamment des images, des croquis et du contenu de tableau blanc. Cette intégration permet aux modèles de manipuler les images, par exemple en les zoomant ou en les faisant pivoter, dans le cadre de leurs processus analytiques, améliorant ainsi leurs capacités de résolution de problèmes.
OpenAI a implémenté dans ces modèles un nouveau paradigme d'entraînement appelé « alignement délibératif ». Cette approche permet à l'IA de mener un raisonnement structuré, conforme aux normes de sécurité élaborées par l'homme, améliorant ainsi le respect des critères de sécurité et fournissant des réponses contextuelles.
Le PDG Sam Altman a reconnu la complexité des conventions de dénomination des modèles d'OpenAI et a indiqué qu'un système de dénomination plus intuitif était à venir.
Voir aussi GPT-4o peut-il générer des images NSFW ?
Accessibilité et développements futurs
Les modèles o3 et o4-mini sont désormais disponibles pour les utilisateurs de ChatGPT Plus, Pro et Team. Ce lancement coïncide avec le lancement récent du modèle GPT-4.1 par OpenAI, témoignant des progrès rapides de l'entreprise en matière de développement de l'IA.
Le PDG Sam Altman a reconnu la complexité des conventions de dénomination des modèles d'OpenAI et a indiqué qu'un système de dénomination plus intuitif était à venir.
Ces avancées soulignent l’engagement d’OpenAI à repousser les limites des capacités de l’IA tout en maintenant l’accent sur la sécurité et l’accessibilité.
OpenAI a également lancé Codex CLI, un agent de code open source qui s'exécute localement sur le terminal de l'utilisateur. Il vise à offrir aux utilisateurs un moyen simple et clair de connecter des modèles d'IA (y compris o3 et o4-mini (avec la prise en charge de GPT-4.1 prochainement)) au code et aux tâches exécutés sur leurs propres ordinateurs. Codex CLI est open source et accessible dès maintenant sur GitHub.
Pour plus d'informations sur les derniers modèles d'OpenAI et leurs capacités, visitez CometAPI API o3 et API O4 Mini, décrit comment accéder et intégrer l'API o3 et l'API O4 Mini via CometAPI.



