L'API o3-Pro est un point de terminaison RESTful ChatCompletion qui permet aux développeurs d'invoquer les capacités avancées de raisonnement par chaîne de pensée, d'exécution de code et d'analyse de données d'OpenAI via des paramètres configurables (model="o3-pro", messages, température, max_tokens, streaming, etc.) pour une intégration transparente dans des flux de travail complexes.
OpenAI o3-pro est une variante « pro » du modèle de raisonnement o3 conçue pour réfléchir plus longtemps et fournir les réponses les plus fiables en utilisant l'apprentissage par renforcement de la chaîne de pensée privée et en établissant de nouvelles références de pointe dans des domaines tels que la science, la programmation et les affaires, tout en intégrant de manière autonome des outils tels que la recherche sur le Web, l'analyse de fichiers, l'exécution Python et le raisonnement visuel au sein de l'API.

Informations de base et Fonctionnement
- Classe de modèle:o3-Pro fait partie des « modèles de raisonnement » d'OpenAI, conçus pour penser étape par étape plutôt que de générer des réponses immédiates.
- Disponibilité:Accessible via les interfaces ChatGPT Pro/Team et l'API développeur OpenAI à compter du 10 juin 2025.
- Niveaux d'accès: Remplace l'édition précédente o1-Pro ; les utilisateurs Enterprise et Edu sont intégrés dans la semaine suivant le lancement.
Détails techniques
- Architecture: S'appuie sur la dorsale o3 avec une architecture améliorée chaîne de pensée privée, permettant un raisonnement en plusieurs étapes lors de l'inférence.
- tokenization: Prend en charge le même schéma de jeton que ses prédécesseurs : 1 million de jetons d'entrée ≈ 750,000 XNUMX mots.
- Capacités étendues: Inclut la recherche Web, l'exécution de code Python, l'analyse de fichiers et le raisonnement visuel ; la génération d'images n'est toujours pas prise en charge dans cette version.
Évolution de la série o
- o1 → o3:Le saut initial de o1 à o3 en avril 2025 a introduit des capacités de raisonnement.
- Stratégie de prix:Parallèlement aux débuts d'o3-Pro, OpenAI a réduit le prix d'o3 de 80 pour cent— de 2
à 0.40par million de jetons d’entrée — pour accélérer l’adoption. - Sortie de l'o3-Pro: Des calculs de qualité supérieure et des voies de raisonnement affinées offrent la plus grande fiabilité à un prix niveau premium.
Performances de référence
- Mathématiques et sciences:A surpassé Google Gemini 2.5 Pro au concours AIME 2024, démontrant une résolution de problèmes supérieure en mathématiques avancées.
- Sciences de niveau doctorat:A surpassé Claude 4 Opus d'Anthropic sur le benchmark GPQA Diamond, indiquant une solide expertise dans les domaines scientifiques.
- Utilisation en entreprise:Les tests internes signalent des victoires constantes par rapport aux modèles précédents dans les tâches de codage, de STEM et de raisonnement commercial.
Indicateurs techniques
- Latence:Les temps de réponse sont plus élevés que ceux d'o1-Pro, ce qui reflète les chaînes de raisonnement plus profondes, en moyenne 1.5 × la latence précédente.
- Cadence de production :Débit soutenu de génération de jetons jusqu'à 10 jetons/sec en mode rafale.
Avec ses chaînes de raisonnement améliorées, son ensemble de fonctionnalités étendu et ses performances de référence de premier plan, o3-Pro représente une avancée significative dans le domaine de l’IA fiable et de haute précision.
Comment appeler l'API o3-Pro depuis CometAPI
o3-Pro Tarification de l'API dans CometAPI, 20 % de réduction sur le prix officiel :
- Jetons d'entrée : 16 $/M jetons
- Jetons de sortie : 64 $/M jetons
Étapes requises
- Se connecter à cometapi.comSi vous n'êtes pas encore notre utilisateur, veuillez d'abord vous inscrire
- Obtenez la clé API d'accès à l'interface. Cliquez sur « Ajouter un jeton » au niveau du jeton API dans l'espace personnel, récupérez la clé : sk-xxxxx et validez.
- Obtenez l'URL de ce site : https://api.cometapi.com/
Méthodes d'utilisation
- Sélectionnez l'option "
o3-Pro"ou alors"**o3-pro-2025-06-10**Point de terminaison pour envoyer la requête et définir le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site web. Notre site web propose également le test Apifox pour plus de commodité. - Remplacer avec votre clé CometAPI réelle de votre compte.
- Insérez votre question ou demande dans le champ de contenu : c'est à cela que le modèle répondra.
- Traitez la réponse de l'API pour obtenir la réponse générée.
Pour plus d'informations sur l'accès aux modèles dans l'API Comet, veuillez consulter API doc.
Ce modèle respecte le format d'appel standard OpenAI v1/responses. Pour référence spécifique :
curl --location
--request POST 'https://api.cometapi.com/v1/responses' \
--header 'Authorization: Bearer sk-xxxxxx' \
--header 'User-Agent: Apifox/1.0.0 (https://apifox.com)' \
--header 'Content-Type: application/json' \
--header 'Accept: */*' \
--header 'Host: api.cometapi.com' \
--header 'Connection: keep-alive' \
--data-raw '{ "model": "o3-pro", "input": }'
Si vous avez des questions sur l'appel ou des suggestions à nous faire, veuillez nous contacter via les réseaux sociaux et par e-mail. support@cometapi.com.
Voir aussi :



