ModèlesTarificationEntreprise
500+ API de modèles IA, toutes en une seule API. Simplement avec CometAPI
API des modèles
Développeur
Démarrage rapideDocumentationTableau de bord API
Entreprise
À proposEntreprise
Ressources
Modèles d'IABlogJournal des modificationsSupport
Conditions d'utilisationPolitique de confidentialité
© 2026 CometAPI · All rights reserved
Home/Models/OpenAI/GPT-5.4 pro
O

GPT-5.4 pro

Entrée:$24/M
Sortie:$144/M
Contexte:1,050,000
Sortie maximale:128,000
Version de GPT-5.4 qui produit des réponses plus intelligentes et plus précises.
Nouveau
Usage commercial
Playground
Aperçu
Fonctionnalités
Tarification
API
Versions

Spécifications techniques de GPT-5.4-Pro

ÉlémentGPT-5.4-Pro
FournisseurOpenAI
Famille de modèlesGPT-5.4
Niveau du modèlePro (variante de raisonnement à calcul intensif)
Types d'entréeTexte, Image
Types de sortieTexte
Fenêtre de contexte1,050,000 tokens
Tokens de sortie max128,000 tokens
Date de coupure des connaissances31 août 2025
Niveaux de raisonnementmedium, high, xhigh
Prise en charge des outilsRecherche web, recherche de fichiers, interpréteur de code, génération d’images
Prise en charge APIResponses API (recommandé)
Sortiemars 2026

Qu'est-ce que GPT-5.4-Pro ?

GPT-5.4-Pro est la variante d’API à la plus forte capacité de la famille de modèles GPT-5.4, conçue pour des tâches de raisonnement, de recherche, de programmation et d’automatisation d’entreprise extrêmement complexes.

Par rapport au modèle GPT-5.4 standard, GPT-5.4-Pro utilise nettement plus de calcul interne pour « réfléchir davantage » avant de produire des réponses, ce qui conduit à des résultats plus précis et plus fiables pour les problèmes difficiles.

Le modèle est optimisé pour des charges professionnelles telles que l’analyse financière, l’ingénierie logicielle, la recherche scientifique et le raisonnement sur des documents à grande échelle.


Principales fonctionnalités de GPT-5.4-Pro

  • Performances de raisonnement extrêmes : utilise des ressources de calcul supplémentaires pour produire des réponses plus précises sur des tâches complexes.
  • Fenêtre de contexte de 1.05M tokens : permet d’analyser des documents, des jeux de données ou des dépôts entiers de très grande taille.
  • Profondeur de raisonnement configurable : les développeurs peuvent contrôler les niveaux d’effort de raisonnement (medium, high, xhigh).
  • Orchestration avancée des outils : fonctionne avec la recherche web, la récupération de fichiers et d’autres outils via la Responses API.
  • Prise en charge de raisonnements longs : les tâches complexes peuvent prendre plusieurs minutes en raison d’une allocation de calcul plus profonde.
  • Fiabilité de niveau entreprise : conçu pour des flux de travail critiques nécessitant une précision maximale des réponses.

Performances de benchmark

OpenAI rapporte des améliorations significatives sur des benchmarks de raisonnement professionnel avec les modèles GPT-5.4 :

BenchmarkGPT-5.4GPT-5.2
GDPval (knowledge work)83.0%70.9%
OfficeQA68.1%63.1%
Investment Banking Modeling87.3%71.7%

Ces améliorations mettent en évidence de meilleures performances de GPT-5.4 sur des tâches professionnelles complexes de connaissances et des flux de travail de raisonnement analytique.

GPT-5.4-Pro améliore encore la fiabilité en allouant plus de calcul de raisonnement que le modèle GPT-5.4 standard.


GPT-5.4-Pro vs modèles comparables

ModèleFenêtre de contexteAtout clé
GPT-5.4-Pro1.05M tokensPrécision de raisonnement maximale
GPT-5.41.05M tokensÉquilibre vitesse/capacité
o3-proPlus petiteRaisonnement efficace
Gemini 3 Pro~1M tokensSolides capacités multimodales

Conclusion clé :
Utilisez GPT-5.4-Pro lorsque la précision maximale du raisonnement prime sur la latence ou le coût.

Limitations

  • Latence plus élevée en raison d’un calcul de raisonnement plus poussé
  • Plus coûteux que GPT-5.4 standard
  • Pas de génération audio ou vidéo
  • Certaines tâches longues peuvent prendre plusieurs minutes

Comment accéder à l’API GPT-5.4 pro

Étape 1 : Inscrivez-vous pour obtenir une clé API

Connectez-vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez-vous à votre console CometAPI. Récupérez la clé API d’authentification de l’interface. Cliquez sur “Add Token” au niveau du jeton API dans le centre personnel, récupérez la clé de jeton : sk-xxxxx et validez.

cometapi-key

Étape 2 : Envoyez des requêtes à l’API GPT-5.4 pro

Sélectionnez l’endpoint “gpt-5.4-pro” pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont obtenus à partir de la documentation API de notre site. Notre site propose également des tests Apifox pour votre convenance. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle issue de votre compte. L’URL de base est Responses.

Insérez votre question ou requête dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.

Étape 3 : Récupérer et vérifier les résultats

Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API renvoie le statut de la tâche et les données de sortie.

FAQ

What makes GPT-5.4 Pro different from the standard GPT-5.4 API model?

GPT-5.4 Pro alloue nettement plus de ressources de calcul internes au raisonnement, produisant des réponses plus précises et plus fiables pour les tâches complexes que le modèle GPT-5.4 standard.

What is the context window of GPT-5.4 Pro in the OpenAI API?

GPT-5.4 Pro prend en charge une fenêtre de contexte d'environ 1,050,000 jetons et autorise jusqu'à 128,000 jetons de sortie par requête.

Why is GPT-5.4 Pro only available through the Responses API?

GPT-5.4 Pro est conçu pour des flux de travail avancés de raisonnement multi-tours et l'orchestration d'outils, que la Responses API prend en charge plus efficacement que les anciens points de terminaison.

What reasoning effort levels are supported by GPT-5.4 Pro?

GPT-5.4 Pro prend en charge des niveaux d'effort de raisonnement medium, high et xhigh afin de contrôler la quantité de calcul interne utilisée par le modèle.

Can GPT-5.4 Pro analyze images through the API?

Oui. GPT-5.4 Pro accepte des entrées d'images, lui permettant d'analyser des captures d'écran, des schémas, des graphiques ou des photographies en parallèle des invites textuelles.

When should developers choose GPT-5.4 Pro instead of GPT-5.4?

Les développeurs devraient choisir GPT-5.4 Pro pour des tâches critiques nécessitant une précision de raisonnement maximale, telles que la modélisation financière, le codage complexe ou l'automatisation de la recherche.

How long can GPT-5.4 Pro take to complete complex requests?

Parce que GPT-5.4 Pro effectue un raisonnement plus approfondi, certaines requêtes complexes peuvent prendre plusieurs minutes à s'achever selon le niveau d'effort de raisonnement.

What knowledge cutoff does the GPT-5.4 Pro model use?

GPT-5.4 Pro a une date limite des connaissances d'entraînement au 31 août 2025.

Fonctionnalités pour GPT-5.4 pro

Découvrez les fonctionnalités clés de GPT-5.4 pro, conçues pour améliorer les performances et la facilité d'utilisation. Explorez comment ces capacités peuvent bénéficier à vos projets et améliorer l'expérience utilisateur.

Tarification pour GPT-5.4 pro

Découvrez des tarifs compétitifs pour GPT-5.4 pro, conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment GPT-5.4 pro peut améliorer vos projets tout en maîtrisant les coûts.
Prix de Comet (USD / M Tokens)Prix officiel (USD / M Tokens)Remise
Entrée:$24/M
Sortie:$144/M
Entrée:$30/M
Sortie:$180/M
-20%

Exemple de code et API pour GPT-5.4 pro

Accédez à des exemples de code complets et aux ressources API pour GPT-5.4 pro afin de simplifier votre processus d'intégration. Notre documentation détaillée fournit des instructions étape par étape pour vous aider à exploiter tout le potentiel de GPT-5.4 pro dans vos projets.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-pro-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.4-pro-2026-03-05",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
    apiKey: COMETAPI_KEY,
    baseURL: BASE_URL,
});

async function main() {
    const response = await client.responses.create({
        model: "gpt-5.4-pro-2026-03-05",
        input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
        reasoning: {
            effort: "high",
        },
    });

    console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.4-pro-2026-03-05",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "high"
    }
}'

Versions de GPT-5.4 pro

La raison pour laquelle GPT-5.4 pro dispose de plusieurs instantanés peut inclure des facteurs potentiels tels que des variations de sortie après des mises à jour nécessitant des instantanés plus anciens pour la cohérence, offrant aux développeurs une période de transition pour l'adaptation et la migration, et différents instantanés correspondant à des points de terminaison globaux ou régionaux pour optimiser l'expérience utilisateur. Pour les différences détaillées entre les versions, veuillez consulter la documentation officielle.
ID du modèledescriptionDisponibilitéDemande
gpt-5.4-pro-2026-03-05Recommandé, pointant vers le dernier modèle✅Responses
gpt-5.4-proAperçu officiel✅Responses

Plus de modèles

C

Claude Opus 4.7

Entrée:$3/M
Sortie:$15/M
Le modèle le plus intelligent pour les agents et la programmation
A

Claude Sonnet 4.6

Entrée:$2.4/M
Sortie:$12/M
Claude Sonnet 4.6 est notre modèle Sonnet le plus performant à ce jour. Il s’agit d’une mise à niveau complète des capacités du modèle dans la programmation, l’usage de l’ordinateur, le raisonnement sur des contextes étendus, la planification d’agents, le travail intellectuel et la conception. Sonnet 4.6 propose également une fenêtre de contexte de 1M de jetons en bêta.
O

GPT-5.4 nano

Entrée:$0.16/M
Sortie:$1/M
GPT-5.4 nano est conçu pour des tâches où la vitesse et le coût comptent le plus, comme la classification, l’extraction de données, le classement et les sous-agents.
O

GPT-5.4 mini

Entrée:$0.6/M
Sortie:$3.6/M
GPT-5.4 mini apporte les atouts de GPT-5.4 dans un modèle plus rapide et plus efficace, conçu pour des charges de travail à grande échelle.
X

Grok 4.20

Entrée:$1.6/M
Sortie:$4.8/M
La version 4.20 de Grok introduit une architecture multi‑agents (plusieurs agents spécialisés coordonnés en temps réel), des modes de contexte étendus, ainsi que des améliorations ciblées en matière de suivi des instructions, de réduction des hallucinations et de sorties structurées/outillées.
Q

Qwen3.6-Plus

Entrée:$0.32/M
Sortie:$1.92/M
Qwen 3.6-Plus est désormais disponible, avec des capacités de développement de code renforcées et une efficacité accrue en matière de reconnaissance et d’inférence multimodales, améliorant encore l’expérience Vibe Coding.

Blogs connexes

Voici comment utiliser Claude Opus via l’API Messages d’Anthropic.

1) Pré requis
- Créez un compte Anthropic et générez une clé API.
- Notez le nom exact du modèle Opus disponible sur votre compte (par ex. claude-3-opus-20240229). Utilisez toujours le nom de modèle actuellement listé dans la console Anthropic.

2) Appel HTTP direct (cURL)
- Endpoint: https://api.anthropic.com/v1/messages
- Headers requis:
  - x-api-key: VOTRE_CLE_API
  - anthropic-version: 2023-06-01
  - content-type: application/json
- Exemple:
  curl https://api.anthropic.com/v1/messages \
    -H "x-api-key: $ANTHROPIC_API_KEY" \
    -H "anthropic-version: 2023-06-01" \
    -H "content-type: application/json" \
    -d '{
      "model": "claude-3-opus-20240229",
      "max_tokens": 1024,
      "temperature": 0.7,
      "messages": [
        {"role": "user", "content": "Explique-moi les bases de l’API Claude en 3 points."}
      ]
    }'

3) Exemple Python (SDK officiel)
- Installation: pip install anthropic
- Code:
  import os
  from anthropic import Anthropic

  client = Anthropic(api_key=os.environ["ANTHROPIC_API_KEY"])

  response = client.messages.create(
      model="claude-3-opus-20240229",
      max_tokens=1024,
      temperature=0.7,
      messages=[
          {"role": "user", "content": "Donne un résumé des étapes pour utiliser l’API."}
      ],
  )

  print(response.content[0].text)

4) Exemple JavaScript/Node.js (SDK officiel)
- Installation: npm install anthropic
- Code:
  import Anthropic from "@anthropic-ai/sdk";

  const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY });

  const msg = await client.messages.create({
    model: "claude-3-opus-20240229",
    max_tokens: 1024,
    temperature: 0.7,
    messages: [
      { role: "user", content: "Liste les bonnes pratiques pour appeler l’API." }
    ],
  });

  console.log(msg.content[0].text);

5) Bonnes pratiques
- Choix du modèle: vérifiez régulièrement le nom de la version Opus la plus récente dans votre console.
- Prompting: placez des directives globales dans un message de rôle system si nécessaire; structurez clairement la tâche dans le message user.
- Paramètres:
  - max_tokens: plafonne la longueur de sortie.
  - temperature: 0–1 pour ajuster la créativité; baissez pour des réponses plus déterministes.
  - top_p: alternative à temperature pour contrôler la diversité.
- Gestion des erreurs et limites:
  - Implémentez des retries exponentiels sur les erreurs transitoires et en cas de rate limit.
  - Fixez des timeouts réseau raisonnables.
- Sécurité et données:
  - Ne transmettez que les données nécessaires.
  - Journalisez les identifiants de requêtes (request_id) pour le support.
- Sorties structurées:
  - Si vous avez besoin de JSON, demandez explicitement un format strict dans le prompt et validez la sortie côté client.
- Streaming (facultatif):
  - Utilisez les capacités de streaming des SDK pour afficher la réponse au fil de l’eau si votre UX le nécessite.

Remarque: “Claude Opus 4.7” n’est pas un nom de modèle standard. Utilisez le nom de modèle Opus exact disponible dans votre compte (par exemple claude-3-opus-20240229) ou le plus récent proposé par Anthropic.
Apr 18, 2026
claude-opus-4-7

Voici comment utiliser Claude Opus via l’API Messages d’Anthropic. 1) Pré requis - Créez un compte Anthropic et générez une clé API. - Notez le nom exact du modèle Opus disponible sur votre compte (par ex. claude-3-opus-20240229). Utilisez toujours le nom de modèle actuellement listé dans la console Anthropic. 2) Appel HTTP direct (cURL) - Endpoint: https://api.anthropic.com/v1/messages - Headers requis: - x-api-key: VOTRE_CLE_API - anthropic-version: 2023-06-01 - content-type: application/json - Exemple: curl https://api.anthropic.com/v1/messages \ -H "x-api-key: $ANTHROPIC_API_KEY" \ -H "anthropic-version: 2023-06-01" \ -H "content-type: application/json" \ -d '{ "model": "claude-3-opus-20240229", "max_tokens": 1024, "temperature": 0.7, "messages": [ {"role": "user", "content": "Explique-moi les bases de l’API Claude en 3 points."} ] }' 3) Exemple Python (SDK officiel) - Installation: pip install anthropic - Code: import os from anthropic import Anthropic client = Anthropic(api_key=os.environ["ANTHROPIC_API_KEY"]) response = client.messages.create( model="claude-3-opus-20240229", max_tokens=1024, temperature=0.7, messages=[ {"role": "user", "content": "Donne un résumé des étapes pour utiliser l’API."} ], ) print(response.content[0].text) 4) Exemple JavaScript/Node.js (SDK officiel) - Installation: npm install anthropic - Code: import Anthropic from "@anthropic-ai/sdk"; const client = new Anthropic({ apiKey: process.env.ANTHROPIC_API_KEY }); const msg = await client.messages.create({ model: "claude-3-opus-20240229", max_tokens: 1024, temperature: 0.7, messages: [ { role: "user", content: "Liste les bonnes pratiques pour appeler l’API." } ], }); console.log(msg.content[0].text); 5) Bonnes pratiques - Choix du modèle: vérifiez régulièrement le nom de la version Opus la plus récente dans votre console. - Prompting: placez des directives globales dans un message de rôle system si nécessaire; structurez clairement la tâche dans le message user. - Paramètres: - max_tokens: plafonne la longueur de sortie. - temperature: 0–1 pour ajuster la créativité; baissez pour des réponses plus déterministes. - top_p: alternative à temperature pour contrôler la diversité. - Gestion des erreurs et limites: - Implémentez des retries exponentiels sur les erreurs transitoires et en cas de rate limit. - Fixez des timeouts réseau raisonnables. - Sécurité et données: - Ne transmettez que les données nécessaires. - Journalisez les identifiants de requêtes (request_id) pour le support. - Sorties structurées: - Si vous avez besoin de JSON, demandez explicitement un format strict dans le prompt et validez la sortie côté client. - Streaming (facultatif): - Utilisez les capacités de streaming des SDK pour afficher la réponse au fil de l’eau si votre UX le nécessite. Remarque: “Claude Opus 4.7” n’est pas un nom de modèle standard. Utilisez le nom de modèle Opus exact disponible dans votre compte (par exemple claude-3-opus-20240229) ou le plus récent proposé par Anthropic.

Claude Opus 4.7 (ID de modèle : `claude-opus-4-7`) est le modèle en disponibilité générale le plus performant d’Anthropic, publié le 16 avril 2026. Il apporte des améliorations majeures en programmation agentique, en vision multimodale haute résolution (jusqu’à 3.75MP), en raisonnement adaptatif et pour des flux de travail de longue durée, tout en maintenant $5/$25 par million de jetons d’entrée/sortie. Utilisez‑le via CometAPI pour des tarifs inférieurs de 20 à 40 %, une clé unifiée et un basculement instantané entre modèles—sans verrouillage fournisseur.
- There isn’t an official Anthropic model called “Claude Opus 4.7.” Anthropic’s top‑tier model is Claude 3 Opus, typically referenced by IDs like “claude-3-opus-20240229” (and later updates for other families such as Claude 3.5 Sonnet).
- If you’re seeing “Claude Opus 4.7” in CometAPI, it’s most likely CometAPI’s own version label for their wrapper/integration of Claude 3 Opus (e.g., an internal release number, compatibility level, or configuration preset), not an upstream Anthropic version.
- To be sure, ask CometAPI for the upstream model ID they map to (e.g., “claude-3-opus-YYYYMMDD”) and check their changelog. Verify key traits (context window, tool use, tokenization, pricing) against Anthropic’s published specs.
- If you need the canonical Opus, look for the official ID (e.g., “claude-3-opus-20240229”) in your provider’s catalog or confirm CometAPI’s mapping to that upstream model.
Apr 16, 2026
claude-opus-4-7

- There isn’t an official Anthropic model called “Claude Opus 4.7.” Anthropic’s top‑tier model is Claude 3 Opus, typically referenced by IDs like “claude-3-opus-20240229” (and later updates for other families such as Claude 3.5 Sonnet). - If you’re seeing “Claude Opus 4.7” in CometAPI, it’s most likely CometAPI’s own version label for their wrapper/integration of Claude 3 Opus (e.g., an internal release number, compatibility level, or configuration preset), not an upstream Anthropic version. - To be sure, ask CometAPI for the upstream model ID they map to (e.g., “claude-3-opus-YYYYMMDD”) and check their changelog. Verify key traits (context window, tool use, tokenization, pricing) against Anthropic’s published specs. - If you need the canonical Opus, look for the official ID (e.g., “claude-3-opus-20240229”) in your provider’s catalog or confirm CometAPI’s mapping to that upstream model.

Claude Opus 4.7, lancé par Anthropic le 16 avril 2026, est le dernier modèle phare de raisonnement hybride de la famille Claude 4. Il offre une amélioration de 13% sur un benchmark de programmation portant sur 93 tâches par rapport à Opus 4.6, prend en charge une fenêtre de contexte de 1M de jetons, une vision à plus haute résolution (jusqu’à 2,576 pixels) et un raisonnement adaptatif pour des workflows agentiques complexes. Il excelle en développement prêt pour la production, dans les tâches de longue durée et dans le travail cognitif professionnel, tout en maintenant le même tarif que son prédécesseur ($5/$25 par million de jetons officiellement). Pour les développeurs recherchant des coûts plus bas et un accès API unifié à 500+ modèles, CometAPI propose Claude Opus 4.7 à seulement $4 en entrée / $20 en sortie par million de jetons — une économie de 20% — ainsi qu’une clé API gratuite et 1M de jetons gratuits pour les nouveaux utilisateurs.
GPT-6 dévoilé : Quand GPT-6 sera-t-il lancé ?
Apr 7, 2026
gpt-6

GPT-6 dévoilé : Quand GPT-6 sera-t-il lancé ?

GPT-6 devrait être lancé dès avril 2026* — quelques semaines seulement après avoir achevé son pré-entraînement le 24 mars sur le supercluster Stargate d'OpenAI à Abilene, au Texas. Nom de code interne « Spud », ce modèle de pointe de nouvelle génération a été développé en secret pendant environ deux ans et est sur le point d'apporter des avancées majeures en matière de raisonnement, de multimodalité et d'utilité dans le monde réel.
Meilleur modèle ChatGPT pour les mathématiques en 2026
Apr 7, 2026
chat-gpt

Meilleur modèle ChatGPT pour les mathématiques en 2026

Le meilleur modèle ChatGPT pour les mathématiques en 2026 est **GPT-5.4 Pro** (mode de raisonnement high/xhigh). Il obtient 100% sur AIME 2025, 98.1% sur MATH Level 5, et 50% sur FrontierMath — devançant Claude Opus 4.6 (40.7% FrontierMath) et Gemini 3.1 Pro (95.1% MATH mais à la traîne sur les mathématiques de compétition). Pour les développeurs, l’accès le moins cher passe par CometAPI pay-as-you-go.
GPT 5.4 Mini et Nano sont disponibles dans CometAPI : qu'apportent-ils ?
Mar 18, 2026

GPT 5.4 Mini et Nano sont disponibles dans CometAPI : qu'apportent-ils ?

GPT-5.4 Mini et GPT-5.4 Nano sont les nouvelles variantes compactes de la famille de pointe GPT-5.4 d’OpenAI : Mini vise un compromis performance/latence de premier ordre pour le codage, les tâches d’interface utilisateur multimodales et les charges de travail de sous-agents ; Nano vise un coût et une latence ultra-faibles pour la classification, l’extraction, le classement et des sous-agents massivement parallèles. Mini offre une précision proche de la frontière sur de nombreux benchmarks pour développeurs tout en s’exécutant plus de 2× plus vite que les mini précédents ; Nano est nettement moins cher par jeton et idéal là où le débit et la réactivité comptent le plus. Ces modèles sont disponibles en direct dans l’API (GPT 5.4 Mini et Nano sont disponibles dans CometAPI).