ModèlesSupportEntrepriseBlog
500+ API de modèles IA, toutes en une seule API. Simplement avec CometAPI
API des modèles
Développeur
Démarrage rapideDocumentationTableau de bord API
Ressources
Modèles d'IABlogEntrepriseJournal des modificationsÀ propos
2025 CometAPI. Tous droits réservés.Politique de confidentialitéConditions d'utilisation
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Entrée:$0.2/M
Sortie:$1.6/M
Contexte:400K
Sortie maximale:128K
GPT-5 mini est le membre de la famille GPT-5 d’OpenAI optimisé pour le coût et la latence, conçu pour offrir une grande partie des atouts multimodaux et de suivi d’instructions de GPT-5 à un coût nettement inférieur pour une utilisation en production à grande échelle. Il vise des environnements où le débit, une tarification prévisible par jeton et des réponses rapides constituent les principales contraintes, tout en fournissant de solides capacités polyvalentes.
Nouveau
Usage commercial
Playground
Aperçu
Fonctionnalités
Tarification
API

Informations de base et fonctionnalités clés

GPT-5 mini est le membre optimisé en coût et en latence de la famille GPT-5, conçu pour offrir une grande partie des atouts multimodaux et de suivi d’instructions de GPT-5 à un coût nettement inférieur pour une utilisation en production à grande échelle. Il cible les environnements où le débit, une tarification prévisible par jeton et des réponses rapides sont les contraintes principales, tout en conservant de solides capacités généralistes.

  • Nom du modèle: gpt-5-mini
  • Fenêtre de contexte: 400 000 tokens
  • Nombre maximal de tokens en sortie: 128 000
  • Caractéristiques clés : vitesse, débit, rentabilité, sorties déterministes pour des invites concises

Comment gpt-5-minifonctionne ?

Chemin d’inférence et déploiement optimisés. Des gains de vitesse concrets proviennent de la fusion des noyaux, du parallélisme tensoriel ajusté pour un graphe plus petit, et d’un runtime d’inférence qui privilégie des boucles internes “thinking” plus courtes, sauf si le développeur demande un raisonnement plus approfondi. C’est pourquoi mini obtient une empreinte de calcul par appel sensiblement plus faible et une latence prévisible pour un trafic à grand volume. Ce compromis est délibéré : moins de calcul par passage avant → coûts plus bas et latence moyenne plus faible.

Contrôles pour les développeurs. GPT-5 mini expose des paramètres tels que verbosity (contrôle le niveau de détail/la longueur) et reasoning_effort (arbitre vitesse vs profondeur), ainsi qu’une prise en charge robuste de l’appel d’outils (appels de fonctions, chaînes d’outils parallèles et gestion structurée des erreurs), permettant aux systèmes de production d’ajuster précisément la précision par rapport au coût.

Performances aux benchmarks — chiffres clés et interprétation

GPT-5 mini se situe généralement dans la plage de ~85–95 % de GPT-5 high sur les benchmarks généraux tout en améliorant sensiblement la latence/le prix. Les documents de lancement de la plateforme indiquent des scores absolus très élevés pour GPT-5 high (AIME ≈ 94.6 % signalé pour la variante la plus performante), avec mini légèrement en dessous mais toujours leader du secteur pour son positionnement prix.

Sur un éventail de benchmarks standardisés et internes, GPT-5 mini atteint :

  • Intelligence (AIME ’25) : 91.1 % (vs 94.6 % pour GPT-5 high)
  • Multimodal (MMMU) : 81.6 % (vs 84.2 % pour GPT-5 high)
  • Coding (SWE-bench Verified) : 71.0 % (vs 74.9 % pour GPT-5 high)
  • Suivi d’instructions (Scale MultiChallenge) : 62.3 % (vs 69.6 %)
  • Appel de fonctions (τ²-bench telecom) : 74.1 % (vs 96.7 %)
  • Taux d’hallucination (LongFact-Concepts) : 0.7 % (plus bas est mieux)([OpenAI][4])

Ces résultats démontrent les compromis robustes de GPT-5 mini entre performance, coût et vitesse.

Limitations

Limitations connues : GPT-5 mini capacité de raisonnement profond réduite vs GPT-5 complet, sensibilité plus élevée aux invites ambiguës, et risques subsistants d’hallucination.

  • Raisonnement profond réduit : pour les tâches de raisonnement multi-étapes et de long terme, le modèle de raisonnement complet ou les variantes “thinking” surpassent mini.
  • Hallucinations et excès de confiance : mini réduit les hallucinations par rapport aux très petits modèles, mais ne les élimine pas ; les sorties doivent être validées dans les flux à forts enjeux (juridique, clinique, conformité).
  • Sensibilité au contexte : les chaînes de contexte très longues et fortement interdépendantes sont mieux prises en charge par les variantes GPT-5 complètes avec de plus grandes fenêtres de contexte ou le modèle “thinking”.
  • Limites de sécurité et de politique : les mêmes garde-fous de sécurité et limites de taux/d’usage s’appliquent aux autres modèles GPT-5 ; les tâches sensibles requièrent une supervision humaine.

Que fait gpt-5-mini ?

  • Agents conversationnels à fort volume : faible latence, coût prévisible.
  • Synthèse de documents et multimodale : résumé long-contexte, rapports image+texte.
  • Outils développeur à l’échelle : vérifications CI du code, auto-revue, génération de code légère.
  • Orchestration d’agents : appel d’outils avec chaînes parallèles lorsque le raisonnement profond n’est pas requis.

Comment commencer à utiliser l’API gpt-5-mini ?

Étapes requises

  • Connectez-vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire.
  • Obtenez la clé d’API d’identification de l’interface. Cliquez sur « Add Token » au niveau du jeton API dans le centre personnel, récupérez la clé de jeton : sk-xxxxx et soumettez.
  • Obtenez l’URL de ce site : https://api.cometapi.com/

Méthode d’utilisation

  1. Sélectionnez l’endpoint “gpt-5-mini“ / "gpt-5-mini-2025-08-07" pour envoyer la requête API et définissez le corps de la requête. La méthode de requête et le corps de la requête sont obtenus depuis la documentation API de notre site. Notre site propose également un test Apifox pour votre commodité.
  2. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle depuis votre compte.
  3. Insérez votre question ou requête dans le champ content — c’est à cela que le modèle répondra.
  4. . Traitez la réponse de l’API pour obtenir la réponse générée.

CometAPI fournit une API REST entièrement compatible — pour une migration sans couture. Détails clés vers API doc :

  • Paramètres principaux : prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint : https://api.cometapi.com/v1/chat/completions
  • Paramètre Model : “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Authentification : Bearer YOUR_CometAPI_API_KEY
  • Content-Type : application/json .

Instructions d’appel API : gpt-5-chat-latest doit être appelé en utilisant le format standard /v1/chat/completions format. Pour les autres modèles (gpt-5, gpt-5-mini, gpt-5-nano, et leurs versions datées), l’utilisation de the /v1/responses format is recommended. Actuellement, deux modes sont disponibles.

Fonctionnalités pour GPT-5 mini

Découvrez les fonctionnalités clés de GPT-5 mini, conçues pour améliorer les performances et la facilité d'utilisation. Explorez comment ces capacités peuvent bénéficier à vos projets et améliorer l'expérience utilisateur.

Tarification pour GPT-5 mini

Découvrez des tarifs compétitifs pour GPT-5 mini, conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment GPT-5 mini peut améliorer vos projets tout en maîtrisant les coûts.
Prix de Comet (USD / M Tokens)Prix officiel (USD / M Tokens)Remise
Entrée:$0.2/M
Sortie:$1.6/M
Entrée:$0.25/M
Sortie:$2/M
-20%

Exemple de code et API pour GPT-5 mini

GPT-5 mini est une variante légère, optimisée en termes de coûts, du modèle phare GPT-5 d’OpenAI, conçue pour offrir un raisonnement de haute qualité et des capacités multimodales avec une latence et des coûts réduits.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Plus de modèles

A

Claude Opus 4.6

Entrée:$4/M
Sortie:$20/M
Claude Opus 4.6 est le grand modèle de langage de classe « Opus » d’Anthropic, publié en février 2026. Il est positionné comme un outil polyvalent pour le travail cognitif et les flux de travail de recherche — améliorant le raisonnement en contexte long, la planification à plusieurs étapes, l’utilisation d’outils (y compris des flux de travail logiciels basés sur des agents) et l’exécution de tâches informatiques telles que la génération automatisée de diapositives et de feuilles de calcul.
A

Claude Sonnet 4.6

Entrée:$2.4/M
Sortie:$12/M
Claude Sonnet 4.6 est notre modèle Sonnet le plus performant à ce jour. Il s’agit d’une mise à niveau complète des capacités du modèle dans la programmation, l’usage de l’ordinateur, le raisonnement sur des contextes étendus, la planification d’agents, le travail intellectuel et la conception. Sonnet 4.6 propose également une fenêtre de contexte de 1M de jetons en bêta.
O

GPT-5.4 nano

Entrée:$0.16/M
Sortie:$1/M
GPT-5.4 nano est conçu pour des tâches où la vitesse et le coût comptent le plus, comme la classification, l’extraction de données, le classement et les sous-agents.
O

GPT-5.4 mini

Entrée:$0.6/M
Sortie:$3.6/M
GPT-5.4 mini apporte les atouts de GPT-5.4 dans un modèle plus rapide et plus efficace, conçu pour des charges de travail à grande échelle.
A

Claude Mythos Preview

A

Claude Mythos Preview

Bientôt disponible
Entrée:$60/M
Sortie:$240/M
Claude Mythos Preview est à ce jour notre modèle de pointe le plus performant et affiche un bond spectaculaire des scores sur de nombreux benchmarks d’évaluation, par rapport à notre précédent modèle de pointe, Claude Opus 4.6.
X

mimo-v2-pro

Entrée:$0.8/M
Sortie:$2.4/M
MiMo-V2-Pro est le modèle fondationnel phare de Xiaomi, doté de plus de 1T de paramètres au total et d’une longueur de contexte de 1M, profondément optimisé pour des scénarios agentiques. Il est hautement adaptable aux frameworks d’agents généraux comme OpenClaw. Il se classe parmi l’élite mondiale sur les benchmarks standard PinchBench et ClawBench, avec des performances perçues proches de celles d’Opus 4.6. MiMo-V2-Pro est conçu pour servir de cerveau des systèmes d’agents, orchestrer des workflows complexes, piloter des tâches d’ingénierie de production et livrer des résultats de manière fiable.