O

GPT-5.2 Pro

Contexte:400,000
Entrée:$12.00/M
Sortie:$96.00/M
gpt-5.2-pro est le membre le plus performant, axé sur la production, de la famille GPT-5.2 d’OpenAI, accessible via l’API Responses pour des charges de travail exigeant une fidélité maximale, un raisonnement en plusieurs étapes, un recours intensif aux outils et les budgets de contexte et de débit les plus élevés qu’OpenAI offre.
O

GPT-5.2 Chat

Contexte:128,000
Entrée:$1.40/M
Sortie:$11.20/M
gpt-5.2-chat-latest est l’instantané optimisé pour le chat de la famille GPT-5.2 d’OpenAI (commercialisé dans ChatGPT sous le nom « GPT-5.2 Instant »). C’est le modèle destiné aux cas d’usage interactifs/de chat qui nécessitent une combinaison de vitesse, de gestion de contextes longs, d’entrées multimodales et d’un comportement conversationnel fiable.
O

GPT-5.2

Contexte:400,000
Entrée:$1.40/M
Sortie:$11.20/M
GPT-5.2 est une suite de modèles déclinée en plusieurs variantes (Instant, Thinking, Pro), conçue pour une meilleure compréhension des contextes longs, des capacités renforcées en programmation et en utilisation d’outils, et des performances nettement supérieures sur des benchmarks professionnels de « travail intellectuel ».
O

GPT-5.1 Chat

Contexte:400.0k
Entrée:$1.00/M
Sortie:$8.00/M
GPT-5.1 Chat est un modèle de langage conversationnel affiné sur des instructions, destiné au chat, au raisonnement et à la rédaction à usage général. Il prend en charge les dialogues multi-tours, la synthèse, la rédaction de brouillons, les questions-réponses sur une base de connaissances, ainsi qu’une assistance légère au codage pour les assistants intégrés aux applications, l’automatisation du support et les copilotes de flux de travail. Parmi ses points forts techniques figurent un alignement optimisé pour le chat, des sorties contrôlables et structurées, ainsi que des voies d’intégration pour l’invocation d’outils et les flux de travail de récupération lorsqu’ils sont disponibles.
O

GPT-5.1

Entrée:$1.00/M
Sortie:$8.00/M
GPT-5.1 est un modèle de langage généraliste entraîné à suivre des instructions, axé sur la génération de texte et le raisonnement à travers les flux de travail liés aux produits. Il prend en charge les dialogues multi-tours, le formatage de sorties structurées et des tâches orientées code telles que la rédaction, la refactorisation et l’explication. Les usages typiques incluent des assistants conversationnels, des questions-réponses augmentées par recherche, la transformation de données et une automatisation de type agent avec des outils ou des API lorsque cela est pris en charge. Ses points forts techniques incluent une modalité centrée sur le texte, le suivi d’instructions, des sorties au format JSON et la compatibilité avec l’appel de fonctions dans les frameworks d’orchestration courants.
O

GPT-5 nano

Contexte:400K
Entrée:$0.04/M
Sortie:$0.32/M
GPT-5 Nano est un modèle d'intelligence artificielle fourni par OpenAI.
O

GPT-5 mini

Contexte:400K
Entrée:$0.20/M
Sortie:$1.60/M
GPT-5 mini est le membre de la famille GPT-5 d’OpenAI optimisé pour le coût et la latence, conçu pour offrir une grande partie des atouts multimodaux et de suivi d’instructions de GPT-5 à un coût nettement inférieur pour une utilisation en production à grande échelle. Il vise des environnements où le débit, une tarification prévisible par jeton et des réponses rapides constituent les principales contraintes, tout en fournissant de solides capacités polyvalentes.
O

GPT 5 Chat

Contexte:400K
Entrée:$1.00/M
Sortie:$8.00/M
GPT-5 Chat (dernière version) est un modèle d'intelligence artificielle fourni par OpenAI.
O

GPT-5

Contexte:400K
Entrée:$1.00/M
Sortie:$8.00/M
GPT-5 est, à ce jour, le modèle de codage le plus puissant d'OpenAI. Il présente des améliorations significatives dans la génération d’interfaces front-end complexes et le débogage de larges bases de code. Il peut transformer des idées en réalité, avec des résultats intuitifs et esthétiquement plaisants, en créant des sites web, des applications et des jeux beaux et adaptatifs, avec un sens aigu de l’esthétique, le tout à partir d’un seul prompt. Les premiers testeurs ont également relevé ses choix de design, ainsi qu’une compréhension plus approfondie d’éléments comme l’espacement, la typographie et les espaces blancs.
O

GPT-4.1 nano

Contexte:1.0M
Entrée:$0.08/M
Sortie:$0.32/M
GPT-4.1 nano est un modèle d’intelligence artificielle fourni par OpenAI. gpt-4.1-nano: Propose une fenêtre de contexte plus large — prenant en charge jusqu’à 1 million de jetons de contexte et capable d’exploiter plus efficacement ce contexte grâce à une meilleure compréhension des longs contextes. Dispose d’une date de coupure des connaissances actualisée à juin 2024. Ce modèle prend en charge une longueur de contexte maximale de 1,047,576 jetons.
O

GPT-4.1

Contexte:1.0M
Entrée:$1.60/M
Sortie:$6.40/M
GPT-4.1 est un modèle d’intelligence artificielle fourni par OpenAI. gpt-4.1-nano : offre une fenêtre de contexte plus large — prenant en charge jusqu’à 1 million de jetons de contexte et capable de mieux exploiter ce contexte grâce à une meilleure compréhension des contextes longs. La date de coupure des connaissances a été mise à jour à juin 2024. Ce modèle prend en charge une longueur de contexte maximale de 1,047,576 jetons.
O

GPT-4o mini

Entrée:$0.12/M
Sortie:$0.48/M
GPT-4o mini est un modèle d'intelligence artificielle fourni par OpenAI.
O

Whisper-1

Entrée:$24.00/M
Sortie:$24.00/M
Conversion de la parole en texte, création de traductions
O

TTS

Entrée:$12.00/M
Sortie:$12.00/M
OpenAI Text-to-Speech
O

Sora 2 Pro

Par Seconde:$0.24
Sora 2 Pro est notre modèle de génération de médias le plus avancé et le plus puissant, capable de générer des vidéos avec audio synchronisé. Il peut créer des clips vidéo détaillés et dynamiques à partir de langage naturel ou d’images.
O

Sora 2

Par Seconde:$0.08
Modèle de génération vidéo ultra-puissant, avec des effets sonores, prend en charge le format conversationnel.
O

GPT Image 1 mini

Entrée:$2.00/M
Sortie:$6.40/M
Version optimisée en termes de coûts de GPT Image 1. Il s’agit d’un modèle de langage multimodal natif qui accepte à la fois des entrées de texte et d’image et génère des images en sortie.
O

GPT 4.1 mini

Contexte:1.0M
Entrée:$0.32/M
Sortie:$1.28/M
GPT-4.1 mini est un modèle d’intelligence artificielle fourni par OpenAI. gpt-4.1-mini : Un bond significatif des performances des petits modèles, surpassant même GPT-4o sur de nombreux benchmarks. Il égale ou dépasse GPT-4o dans les évaluations d’intelligence tout en réduisant la latence de près de moitié et les coûts de 83 %. Ce modèle prend en charge une longueur de contexte maximale de 1,047,576 jetons.
O

o4-mini-deep-research

Contexte:200K
Entrée:$1.60/M
Sortie:$6.40/M
O4-Mini-Deep-Research est le dernier modèle de raisonnement agentique d’OpenAI, combinant le backbone o4-mini léger avec le framework Deep Research avancé. Conçu pour offrir une synthèse d’informations approfondie, rapide et économique, il permet aux développeurs et aux chercheurs d’effectuer des recherches web automatisées, des analyses de données et un raisonnement de type chaîne de pensée en un seul appel d’API.
O

o4-mini

Entrée:$0.88/M
Sortie:$3.52/M
O4-mini est un modèle d'intelligence artificielle fourni par OpenAI.
O

O3 Pro

Contexte:200K
Entrée:$16.00/M
Sortie:$64.00/M
OpenAI o3‑pro est une variante « pro » du modèle de raisonnement o3, conçue pour réfléchir plus longtemps et fournir les réponses les plus fiables en employant un apprentissage par renforcement sur des chaînes de raisonnement privées et en établissant de nouvelles références de pointe dans des domaines tels que la science, la programmation et l’entreprise—tout en intégrant de manière autonome des outils tels que la recherche web, l’analyse de fichiers, l’exécution Python et le raisonnement visuel au sein de l’API.
O

o3-mini

Entrée:$0.88/M
Sortie:$3.52/M
O3-mini est un modèle d’intelligence artificielle fourni par OpenAI.
O

o3-deep-research

Entrée:$8.00/M
Sortie:$32.00/M
Un agent de recherche approfondie en réseau, basé sur le modèle O3, prenant en charge l'inférence en plusieurs étapes et les rapports d'analyse des citations.
O

o3

Entrée:$1.60/M
Sortie:$6.40/M
O3 est un modèle d'intelligence artificielle fourni par OpenAI.
O

GPT-4o mini Audio

Entrée:$0.12/M
Sortie:$0.48/M
GPT-4o mini Audio est un modèle multimodal pour les interactions vocales et textuelles. Il effectue la reconnaissance vocale, la traduction et la synthèse vocale, suit les instructions et peut appeler des outils pour des actions structurées avec des réponses en streaming. Les cas d’utilisation typiques comprennent les assistants vocaux en temps réel, le sous-titrage et la traduction en direct, le résumé d’appels et les applications contrôlées par la voix. Les points forts techniques comprennent l’entrée et la sortie audio, des réponses en streaming, l’appel de fonctions et une sortie JSON structurée.
O

codex-mini-latest

Entrée:$1.20/M
Sortie:$4.80/M
Codex Mini est un modèle d’intelligence artificielle fourni par OpenAI. Il représente la toute dernière avancée d’OpenAI en génération de code, un modèle léger spécialement optimisé pour l’interface en ligne de commande Codex (CLI). En tant que version affinée d’o4-mini, ce modèle hérite de la grande efficacité et de la rapidité de réponse du modèle de base, tout en étant spécialement optimisé pour la compréhension et la génération de code.
O

GPT-4o mini TTS

Entrée:$9.60/M
Sortie:$38.40/M
GPT-4o mini TTS est un modèle neuronal de synthèse vocale conçu pour une génération vocale naturelle et à faible latence dans des applications destinées aux utilisateurs finaux. Il convertit le texte en parole au rendu naturel, avec des voix sélectionnables, une sortie multi-format et une synthèse en streaming pour des expériences réactives. Les cas d’utilisation typiques incluent les assistants vocaux, les SVI et les flux de contacts, la lecture à voix haute de produits et la narration pour les médias. Parmi les points techniques clés figurent le streaming basé sur API et l’exportation vers des formats audio courants tels que MP3 et WAV.
O

GPT-4o Realtime

Entrée:$60.00/M
Sortie:$240.00/M
La Realtime API permet aux développeurs de créer des expériences multimodales à faible latence, y compris une fonctionnalité de parole à parole. Le texte et l'audio traités par la Realtime API sont facturés séparément. Ce modèle prend en charge une longueur de contexte maximale de 128,000 jetons.
O

GPT-4o Search

Entrée:$60.00/M
Sortie:$60.00/M
GPT-4o Search est un modèle multimodal basé sur GPT-4o, configuré pour un raisonnement augmenté par la recherche et pour fournir des réponses fondées et à jour. Il suit les instructions et utilise des outils de recherche Web pour récupérer, évaluer et synthétiser des informations externes, avec le contexte des sources lorsque celui-ci est disponible. Les usages typiques incluent l’assistance à la recherche, la vérification des faits, la veille de l’actualité et des tendances, ainsi que la réponse à des requêtes nécessitant une réponse rapide. Parmi les points forts techniques figurent l’appel d’outils et de fonctions pour la navigation et la récupération d’informations, la gestion de longs contextes, et des sorties structurées adaptées aux citations et aux liens.
O

ChatGPT-4o

Entrée:$4.00/M
Sortie:$12.00/M
Basé sur la dernière itération de GPT-4o, un grand modèle de langage multimodal (LLM) qui prend en charge les entrées et sorties de texte, d’image, d’audio et de vidéo.
O

tts-1-hd-1106

Entrée:$24.00/M
Sortie:$24.00/M
O

tts-1-hd

Entrée:$24.00/M
Sortie:$24.00/M
O

tts-1-1106

Entrée:$12.00/M
Sortie:$12.00/M
O

tts-1

Entrée:$12.00/M
Sortie:$12.00/M
O

text-embedding-ada-002

Entrée:$0.08/M
Sortie:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

Entrée:$0.02/M
Sortie:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

Entrée:$0.10/M
Sortie:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

Par requête:$0.00
O

omni-moderation-2024-09-26

Par requête:$0.00
O

o1-pro-all

Entrée:$120.00/M
Sortie:$480.00/M
O

o1-pro-2025-03-19

Entrée:$120.00/M
Sortie:$480.00/M
O

o1-pro

Entrée:$120.00/M
Sortie:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

Par requête:$0.16
O

o1-preview-2024-09-12

Entrée:$12.00/M
Sortie:$48.00/M
O

o1-preview

Entrée:$12.00/M
Sortie:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

Par requête:$0.08
O

o1-mini-2024-09-12

Entrée:$0.88/M
Sortie:$3.52/M
O

o1-mini

Entrée:$0.88/M
Sortie:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

Par requête:$0.16
O

o1-2024-12-17

Entrée:$12.00/M
Sortie:$48.00/M
O

o1

Entrée:$12.00/M
Sortie:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

Entrée:$0.48/M
Sortie:$0.96/M
Une version économique du GPT en temps réel — capable de répondre en temps réel aux entrées audio et textuelles via des connexions WebRTC, WebSocket ou SIP.
C

gpt-oss-20b

Entrée:$0.08/M
Sortie:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

Entrée:$0.16/M
Sortie:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

Entrée:$8.00/M
Sortie:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

Entrée:$2.00/M
Sortie:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

Entrée:$2.00/M
Sortie:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

Entrée:$8.00/M
Sortie:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

Par requête:$0.04
O

gpt-4-turbo-preview

Entrée:$8.00/M
Sortie:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

Entrée:$8.00/M
Sortie:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

Entrée:$8.00/M
Sortie:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

Par requête:$0.04
O

gpt-4-gizmo-*

Entrée:$24.00/M
Sortie:$48.00/M
O

gpt-4-gizmo

Entrée:$24.00/M
Sortie:$48.00/M
O

gpt-4-dalle

Par requête:$0.04
O

gpt-4-all

Entrée:$24.00/M
Sortie:$48.00/M
A

gpt-4-32k

Entrée:$48.00/M
Sortie:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

Entrée:$8.00/M
Sortie:$16.00/M
O

gpt-4-0613

Entrée:$24.00/M
Sortie:$48.00/M
O

gpt-4-0314

Entrée:$24.00/M
Sortie:$48.00/M
O

gpt-4-0125-preview

Entrée:$8.00/M
Sortie:$16.00/M
O

gpt-4

Entrée:$24.00/M
Sortie:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

Entrée:$0.40/M
Sortie:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

Entrée:$0.40/M
Sortie:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

Par requête:$0.02
New version of DALL-E for image generation.
O

dall-e-2

Entrée:$8.00/M
Sortie:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

Contexte:200K
Entrée:$2.40/M
Sortie:$12.00/M
Claude Sonnet 4.5 réalise un bond significatif dans ses capacités à utiliser des applications sur ordinateur. Sur OSWorld, une plateforme de référence pour évaluer les modèles d’IA sur des tâches informatiques réelles, Sonnet 4.5 a pris la tête avec 61.4 %, alors que quatre mois plus tôt seulement, Sonnet 4 dominait avec 42.2 %. Notre extension Claude for Chrome met ces fonctionnalités améliorées en pratique.
A

Claude Opus 4.5

Contexte:200K
Entrée:$4.00/M
Sortie:$20.00/M
Claude Opus 4.5 est un modèle de langage de grande taille ajusté par instructions d’Anthropic, conçu pour le raisonnement complexe, la programmation et les dialogues multi-tours. Il prend en charge la gestion d’un contexte étendu, l’appel d’outils/fonctions, des sorties structurées, ainsi que l’intégration à des flux de travail augmentés par la recherche. Les cas d’usage typiques incluent des assistants analytiques, la génération et la revue de code, le question-réponse sur des bases de connaissances, et la rédaction de contenus avec des réponses conformes aux politiques. Les points forts techniques incluent le suivi d’instructions, un comportement compatible avec la RAG, et des contrôles de sécurité disponibles dans les déploiements de Claude.
C

Claude Opus 4.1

Contexte:200K
Entrée:$12.00/M
Sortie:$60.00/M
Claude Opus 4.1 est une version mise à jour du modèle phare d'Anthropic, offrant des performances améliorées en programmation, en inférence et pour les tâches d'agent. Il atteint 74.5 % sur SWE-bench Verified, mettant en évidence des améliorations significatives dans la refactorisation de code multi-fichiers, la précision du débogage et l'inférence axée sur les détails. Ce modèle prend en charge un raisonnement étendu jusqu'à 64K tokens et est optimisé pour des tâches impliquant la recherche, l'analyse de données et l'inférence assistée par des outils.
C

Claude 4 Sonnet

Contexte:200K
Entrée:$2.40/M
Sortie:$12.00/M
Modèle le plus rapide et le plus économique, fenêtre de contexte de 200K.
C

Claude Opus 4

Contexte:200K
Entrée:$12.00/M
Sortie:$60.00/M
L’équilibre optimal entre intelligence, coût et vitesse. Fenêtre de contexte de 200K.
C

Claude 3.7 Sonnet

Entrée:$2.40/M
Sortie:$12.00/M
La grande offensive de Claude contre R1 : le puissant 3.7 est officiellement en ligne. Ce modèle prend en charge une longueur de contexte maximale de 200 000 jetons. Avec prise en charge du raisonnement.
C

Claude Haiku 4.5

Contexte:200K
Entrée:$0.80/M
Sortie:$4.00/M
Le modèle le plus rapide et le plus économique.
C

Claude 3.5 Haiku

Entrée:$0.80/M
Sortie:$4.00/M
Ces alias pointent automatiquement vers le dernier instantané d’un modèle donné. Bien qu’ils soient utiles pour l’expérimentation, nous recommandons d’utiliser des versions spécifiques du modèle (par exemple, claude-3-5-sonnet-20241022) dans les applications de production afin de garantir un comportement cohérent. Lorsque nous publions de nouveaux instantanés de modèle, nous mettons à jour l’alias -latest pour qu’il pointe vers la nouvelle version (généralement dans la semaine suivant la sortie de la nouvelle version). L’alias -latest a les mêmes limites de débit et la même tarification que la version du modèle sous-jacente à laquelle il se réfère. Ce modèle prend en charge une longueur de contexte maximale de 200,000 jetons.
C

Claude 3 Haiku

Entrée:$0.20/M
Sortie:$1.00/M
Claude Haiku 3 est un modèle d'intelligence artificielle fourni par Anthropic.
G

Veo 3.1 Pro

Par requête:$2.00
Veo 3.1‑Pro désigne l’accès/la configuration à capacités étendues de la famille Veo 3.1 de Google — une génération de modèles vidéo de format court, avec prise en charge de l’audio, qui ajoutent un audio natif plus riche, des contrôles de narration/montage améliorés et des outils d’extension de scène.
G

Veo 3.1

Par requête:$0.40
Veo 3.1 est une mise à jour incrémentale mais significative de Google pour sa famille Veo texte-et-image→vidéo, ajoutant un son natif plus riche, des sorties vidéo plus longues et plus facilement contrôlables, ainsi que des outils de montage plus précis et des contrôles au niveau des scènes.
G

Veo 3 Pro

Par requête:$2.00
Veo 3 pro désigne l’expérience du modèle vidéo Veo 3 de niveau production (haute fidélité, audio natif et outillage étendu).
G

Veo 3 Fast

Par requête:$0.40
Veo 3 Fast est la variante de la famille Veo de modèles vidéo génératifs de Google, optimisée pour la vitesse (Veo 3 / Veo 3.1, etc.). Il est conçu pour produire de courts clips vidéo de haute qualité avec une piste audio générée nativement, tout en privilégiant le débit et le coût par seconde — en sacrifiant une partie de la fidélité visuelle haut de gamme et/ou des durées de plan plus longues au profit d’une génération beaucoup plus rapide et d’un coût inférieur. Qu’est-ce que Veo 3 Fast — présentation concise
G

Veo 3

Par requête:$0.40
Veo 3 de Google DeepMind représente l’état de l’art de la génération de vidéo à partir de texte, marquant la première fois qu’un modèle d’IA générative à grande échelle synchronise de manière transparente une vidéo haute fidélité avec l’audio qui l’accompagne — y compris les dialogues, les effets sonores et les ambiances sonores.
G

Gemini 2.5 Pro

Contexte:1M
Entrée:$1.00/M
Sortie:$8.00/M
Gemini 2.5 Pro est un modèle d’intelligence artificielle proposé par Google. Il dispose de capacités de traitement multimodales natives et d’une fenêtre de contexte ultra-longue pouvant atteindre 1 million de jetons, offrant un support d’une puissance sans précédent pour les tâches complexes et à longues séquences. Selon les données de Google, Gemini 2.5 Pro se distingue particulièrement sur les tâches complexes. Ce modèle prend en charge une longueur de contexte maximale de 1,048,576 jetons.
G

Gemini 2.5 Flash

Contexte:1M
Entrée:$0.24/M
Sortie:$2.00/M
Gemini 2.5 Flash est un modèle d’IA développé par Google, conçu pour fournir des solutions rapides et économiques aux développeurs, en particulier pour les applications nécessitant des capacités d’inférence renforcées. Selon l’annonce de l’aperçu de Gemini 2.5 Flash, le modèle a été publié en préversion le 17 avril 2025, prend en charge les entrées multimodales et dispose d’une fenêtre de contexte de 1 million de jetons. Ce modèle prend en charge une longueur de contexte maximale de 65,536 jetons.
G

Nano Banana

Par requête:$0.03
Gemini 2.5 Flash Image (alias nano-banana), le modèle de génération et d’édition d’images le plus avancé de Google. Cette mise à jour vous permet de fusionner plusieurs images en une seule, de maintenir la cohérence des personnages pour raconter des récits riches, d’effectuer des transformations ciblées à l’aide du langage naturel et d’exploiter les connaissances du monde de Gemini pour générer et modifier des images.
G

Gemini 2.5 Flash Lite

Contexte:1M
Entrée:$0.08/M
Sortie:$0.32/M
Un modèle Gemini 2.5 Flash optimisé pour un excellent rapport coût-efficacité et un débit élevé. Le modèle le plus petit et le plus rentable, conçu pour une utilisation à grande échelle.
G

Gemini 2.5 Pro DeepSearch

Entrée:$8.00/M
Sortie:$64.00/M
Modèle de recherche en profondeur, doté de capacités renforcées de recherche en profondeur et de recherche d'information, un choix idéal pour l'intégration et l'analyse de connaissances complexes.
G

Gemini 2.5 Pro (All)

Entrée:$2.00/M
Sortie:$16.00/M
Gemini 2.5 Pro (All) est un modèle multimodal pour la compréhension du texte et des médias, conçu pour des assistants polyvalents et un raisonnement ancré. Il gère le suivi d’instructions, la rédaction analytique, la compréhension du code et la compréhension d’images/audio, avec un appel fiable d’outils/fonctions et un comportement compatible avec le RAG. Les cas d’usage typiques incluent des agents conversationnels d’entreprise, l’analyse de documents et d’interfaces utilisateur, le question-réponse visuel et l’automatisation des flux de travail. Parmi les points forts techniques figurent des entrées unifiées image‑texte‑audio, la prise en charge de longs contextes, une sortie JSON structurée, des réponses en streaming et le contrôle des instructions système.
G

Gemini 2.5 Flash DeepSearch

Entrée:$4.80/M
Sortie:$38.40/M
Modèle de recherche en profondeur, doté de capacités renforcées de recherche en profondeur et de recherche d'information, un choix idéal pour l'intégration et l'analyse de connaissances complexes.
G

Gemini 2.5 Flash (All)

Entrée:$0.24/M
Sortie:$2.00/M
Gemini 2.5 Flash est un modèle d’IA développé par Google, conçu pour fournir des solutions rapides et économiques aux développeurs, en particulier pour les applications nécessitant des capacités d’inférence renforcées. Selon l’annonce de la version d’aperçu de Gemini 2.5 Flash, le modèle a été publié en version d’aperçu le 17 avril 2025, prend en charge les entrées multimodales et dispose d’une fenêtre de contexte de 1 million de jetons. Ce modèle prend en charge une longueur de contexte maximale de 65,536 jetons.
G

Gemini 2.0 Flash Lite

Entrée:$0.08/M
Sortie:$0.32/M
Gemini 2.0 Flash Lite est un modèle multimodal compact, affiné sur des instructions, optimisé pour une inférence à faible latence et à haut débit. Il prend en charge la compréhension de textes et d’images, la synthèse, la classification et un raisonnement léger, avec appel d’outils/fonctions et contrôle de la sortie structurée. Les cas d’utilisation typiques incluent des agents conversationnels, la rédaction rapide de contenu, l’extraction de métadonnées à partir de documents ou de captures d’écran, et des flux de travail augmentés par la récupération d’informations. Les points techniques clés incluent des entrées texte et image, une génération en streaming, l’appel de fonctions/outils et des options de déploiement adaptées aux services sensibles à la latence.
G

Gemini 2.0 Flash

Entrée:$0.08/M
Sortie:$0.32/M
Gemini 2.0 Flash est un modèle d'intelligence artificielle fourni par Google-Vertex.
G

Nano Banana Pro

Par requête:$0.19
Nano Banana Pro est un modèle d’IA destiné à fournir une assistance polyvalente dans des flux de travail centrés sur le texte. Il convient aux prompts de type instruction pour générer, transformer et analyser du contenu avec une structure contrôlable. Les cas d’utilisation typiques incluent les assistants de chat, la synthèse de documents, la question-réponse (QA) basée sur les connaissances et l’automatisation des flux de travail. Les détails techniques publics sont limités ; l’intégration s’aligne sur les schémas courants des assistants d’IA, tels que les sorties structurées, les prompts augmentés par la recherche et l’appel d’outils ou de fonctions.
G

Gemini 3 Pro Preview

Contexte:200.0k
Entrée:$1.60/M
Sortie:$9.60/M
Gemini 3 Pro Preview est un modèle polyvalent de la famille Gemini, disponible en préversion pour l’évaluation et le prototypage. Il prend en charge le suivi d’instructions, le raisonnement multi‑tours et des tâches de code et de données, avec des sorties structurées et des appels d’outils et de fonctions pour l’automatisation des flux de travail. Les cas d’usage typiques incluent des assistants de chat, la synthèse et la réécriture, les questions‑réponses augmentées par la recherche, l’extraction de données et une assistance légère au codage dans des applications et des services. Les points forts techniques incluent un déploiement via API, des réponses en streaming, des contrôles de sécurité et une préparation à l’intégration, avec des capacités multimodales selon la configuration de la préversion.
X

Grok Code Fast 1

Contexte:256K
Entrée:$0.16/M
Sortie:$1.20/M
Grok Code Fast 1 est un modèle de programmation d'IA lancé par xAI, conçu pour exécuter rapidement et efficacement des tâches de codage de base. Le modèle peut traiter 92 jetons par seconde, dispose d'une fenêtre de contexte de 256k et convient au prototypage rapide, au débogage de code et à la génération d'éléments visuels simples.
X

Grok 4 Fast

Contexte:2M
Entrée:$0.16/M
Sortie:$0.40/M
Grok 4 Fast est un nouveau modèle d’intelligence artificielle lancé par xAI, intégrant des capacités d’inférence et de non-inférence dans une architecture unique. Ce modèle dispose d’une fenêtre de contexte de 2 millions de jetons et est conçu pour des applications à haut débit telles que la recherche et le codage. Le modèle propose deux versions : Grok-4-Fast-Reasoning et Grok-4-Fast-Non-Reasoning, optimisées pour différentes tâches.
X

Grok 4.1 Fast

Contexte:2M
Entrée:$0.16/M
Sortie:$0.40/M
Grok 4.1 Fast est le grand modèle d’xAI axé sur la production, optimisé pour l’appel d’outils piloté par des agents, les flux de travail à contexte long et l’inférence à faible latence. Il s’agit d’une famille multimodale déclinée en deux variantes, conçue pour exécuter des agents autonomes capables d’effectuer des recherches, d’exécuter du code, d’appeler des services et de raisonner sur des contextes extrêmement volumineux (jusqu’à 2 millions de tokens).
X

Grok 4

Contexte:256K
Entrée:$2.40/M
Sortie:$12.00/M
Grok 4 est un modèle d’intelligence artificielle fourni par XAI. Il prend actuellement en charge la modalité texte ; la vision, la génération d’images et d’autres fonctionnalités arriveront bientôt. Il dispose de paramètres techniques et de capacités d’écosystème extrêmement puissants : Fenêtre de contexte : prend en charge le traitement d’un contexte allant jusqu’à 256,000 jetons, devançant les modèles grand public.
X

Grok 3 Reasoner

Entrée:$2.40/M
Sortie:$12.00/M
Modèle de raisonnement Grok-3, avec chaîne de pensée, le concurrent d'Elon Musk face à R1. Ce modèle prend en charge une longueur de contexte maximale de 100,000 jetons.
X

Grok 3 Mini

Entrée:$0.24/M
Sortie:$0.40/M
Un modèle léger qui réfléchit avant de répondre. Rapide, intelligent et idéal pour les tâches axées sur la logique ne nécessitant pas de connaissances approfondies du domaine. Les traces de raisonnement brutes sont accessibles. Ce modèle prend en charge une longueur de contexte maximale de 100 000 jetons.
X

Grok 3 DeepSearch

Entrée:$2.40/M
Sortie:$12.00/M
Grok-3 modèle de recherche en réseau profond. Ce modèle prend en charge une longueur de contexte maximale de 100,000 jetons.
X

Grok 3 DeeperSearch

Entrée:$2.40/M
Sortie:$12.00/M
Modèle de recherche en réseau profond Grok-3, supérieur à grok-3-deepsearch. Ce modèle prend en charge une longueur de contexte maximale de 100,000 jetons.
X

Grok 3

Entrée:$2.40/M
Sortie:$12.00/M
Grok-3 est le dernier modèle de chatbot d’intelligence artificielle, lancé par l’entreprise xAI d’Elon Musk le 17 février 2025. Son cluster d’entraînement a atteint le niveau de 200 000 cartes, offrant d’excellentes performances dans des tâches telles que les mathématiques, les sciences et la programmation, et il est salué par Musk comme « l’IA la plus intelligente de la planète ». Ce modèle prend en charge une longueur de contexte maximale de 100 000 jetons.
X

Grok 2

Entrée:$0.80/M
Sortie:$0.80/M
Grok 2 est un modèle d'intelligence artificielle fourni par XAI.
D

DeepSeek-V3.2

Contexte:128K
Entrée:$0.22/M
Sortie:$0.35/M
DeepSeek v3.2 est la dernière version de production de la famille DeepSeek V3 : une famille de grands modèles de langage à poids ouverts, axée en priorité sur le raisonnement, conçue pour la compréhension de contextes longs, l'utilisation robuste d'agents/outils, un raisonnement avancé, la programmation et les mathématiques.
D

DeepSeek-V3

Entrée:$0.22/M
Sortie:$0.88/M
Le modèle DeepSeek-V3 le plus populaire et le plus économique. Version 671B complète. Ce modèle prend en charge une longueur de contexte maximale de 64,000 jetons.
D

DeepSeek-V3.1

Entrée:$0.44/M
Sortie:$1.32/M
DeepSeek V3.1 est la mise à niveau de la série V de DeepSeek : un grand modèle de langage hybride « raisonnement / non-raisonnement » visant une intelligence générale à haut débit et à faible coût, ainsi que l’utilisation d’outils par des agents. Il conserve la compatibilité avec l’API de style OpenAI, ajoute des appels d’outils plus intelligents et — selon l’entreprise — offre une génération plus rapide et une fiabilité accrue des agents.
D

DeepSeek-R1T2-Chimera

Entrée:$0.24/M
Sortie:$0.24/M
Un modèle de génération de texte Mixture of Experts de 671B paramètres, fusionné à partir de R1-0528, R1 et V3-0324 de DeepSeek-AI, prenant en charge jusqu’à 60k jetons de contexte.
D

DeepSeek-Reasoner

Entrée:$0.44/M
Sortie:$1.75/M
DeepSeek-Reasoner est la famille de LLM et de points de terminaison d’API de DeepSeek, axée en priorité sur le raisonnement, conçue pour (1) exposer aux appelants le raisonnement interne en chaîne de pensée (CoT) et (2) fonctionner en modes « réflexion » optimisés pour la planification multi-étapes, les mathématiques, la programmation et l’utilisation d’agents et d’outils.
D

DeepSeek-OCR

Par requête:$0.04
DeepSeek-OCR est un modèle de reconnaissance optique de caractères (OCR) destiné à extraire du texte à partir d’images et de documents. Il traite des pages numérisées, des photos et des captures d’écran d’interfaces utilisateur pour produire des transcriptions avec des repères de mise en page, tels que des sauts de ligne. Parmi les usages courants figurent la numérisation de documents, l’ingestion de factures et de reçus, l’indexation pour la recherche et la mise en place de pipelines RPA. Les points techniques marquants incluent la conversion d’images en texte, la prise en charge de contenus numérisés et photographiés, ainsi qu’une sortie texte structurée pour un traitement en aval.
D

DeepSeek-Chat

Contexte:64K
Entrée:$0.22/M
Sortie:$0.88/M
Le modèle DeepSeek-V3 le plus populaire et le plus économique. Version 671B complète. Ce modèle prend en charge une longueur de contexte maximale de 64,000 jetons.
Q

Qwen Image

Par requête:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

Entrée:$0.45/M
Sortie:$1.79/M
- **kimi-k2-250905**: Version 0905 de la série Kimi K2 de Moonshot AI, prenant en charge un contexte ultra-long (jusqu’à 256k jetons, front-end et appels d’outils). - 🧠 Appels d’outils améliorés : précision de 100 %, intégration transparente, adapté aux tâches complexes et à l’optimisation de l’intégration. - ⚡️ Performances plus efficaces : TPS jusqu’à 60-100 (API standard), jusqu’à 600-100 en mode Turbo, offrant une réponse plus rapide et des capacités d’inférence améliorées, limite de connaissances jusqu’à la mi-2025.
Q

qwen3-max-preview

Entrée:$0.24/M
Sortie:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

Entrée:$0.24/M
Sortie:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

Entrée:$0.24/M
Sortie:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

Entrée:$0.24/M
Sortie:$0.97/M
Q

qwen3-coder

Entrée:$0.24/M
Sortie:$0.97/M
Q

qwen3-8b

Entrée:$0.04/M
Sortie:$0.16/M
Q

qwen3-32b

Entrée:$1.60/M
Sortie:$6.40/M
Q

qwen3-30b-a3b

Entrée:$0.12/M
Sortie:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

Entrée:$0.22/M
Sortie:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

Entrée:$0.80/M
Sortie:$3.20/M
Q

qwen2.5-vl-72b-instruct

Entrée:$2.40/M
Sortie:$7.20/M
Q

qwen2.5-vl-72b

Entrée:$2.40/M
Sortie:$7.20/M
Q

qwen2.5-vl-32b-instruct

Entrée:$2.40/M
Sortie:$7.20/M
Q

qwen2.5-omni-7b

Entrée:$60.00/M
Sortie:$60.00/M
Q

qwen2.5-math-72b-instruct

Entrée:$3.20/M
Sortie:$3.20/M
Q

qwen2.5-coder-7b-instruct

Entrée:$0.80/M
Sortie:$0.80/M
Q

qwen2.5-coder-32b-instruct

Entrée:$0.80/M
Sortie:$0.80/M
Q

qwen2.5-7b-instruct

Entrée:$0.80/M
Sortie:$0.80/M
Q

qwen2.5-72b-instruct

Entrée:$3.20/M
Sortie:$3.20/M
Q

qwen2.5-32b-instruct

Entrée:$0.96/M
Sortie:$0.96/M
Q

qwen2.5-14b-instruct

Entrée:$3.20/M
Sortie:$3.20/M
Q

qwen2-vl-7b-instruct

Entrée:$1.60/M
Sortie:$1.60/M
Q

qwen2-vl-72b-instruct

Entrée:$1.60/M
Sortie:$1.60/M
Q

qwen2-7b-instruct

Entrée:$0.16/M
Sortie:$0.16/M
Q

qwen2-72b-instruct

Entrée:$8.00/M
Sortie:$8.00/M
Q

qwen2-57b-a14b-instruct

Entrée:$3.20/M
Sortie:$3.20/M
Q

qwen2-1.5b-instruct

Entrée:$0.16/M
Sortie:$0.16/M
Q

qwen1.5-7b-chat

Entrée:$0.16/M
Sortie:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

Entrée:$3.20/M
Sortie:$3.20/M
M

mj_turbo_zoom

Par requête:$0.17
M

mj_turbo_variation

Par requête:$0.17
M

mj_turbo_upscale_subtle

Par requête:$0.17
M

mj_turbo_upscale_creative

Par requête:$0.17
M

mj_turbo_upscale

Par requête:$0.02
M

mj_turbo_upload

Par requête:$0.01
M

mj_turbo_shorten

Par requête:$0.17
M

mj_turbo_reroll

Par requête:$0.17
M

mj_turbo_prompt_analyzer_extended

Par requête:$0.00
M

mj_turbo_prompt_analyzer

Par requête:$0.00
M

mj_turbo_pic_reader

Par requête:$0.00
M

mj_turbo_pan

Par requête:$0.17
M

mj_turbo_modal

Par requête:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

Par requête:$0.17
M

mj_turbo_inpaint

Par requête:$0.08
M

mj_turbo_imagine

Par requête:$0.17
M

mj_turbo_high_variation

Par requête:$0.17
M

mj_turbo_describe

Par requête:$0.00
M

mj_turbo_custom_zoom

Par requête:$0.00
M

mj_turbo_blend

Par requête:$0.17
M

mj_fast_zoom

Par requête:$0.06
M

mj_fast_video

Par requête:$0.60
Midjourney video generation
M

mj_fast_variation

Par requête:$0.06
M

mj_fast_upscale_subtle

Par requête:$0.06
M

mj_fast_upscale_creative

Par requête:$0.06
M

mj_fast_upscale

Par requête:$0.01
M

mj_fast_upload

Par requête:$0.01
M

mj_fast_shorten

Par requête:$0.06
M

mj_fast_reroll

Par requête:$0.06
M

mj_fast_prompt_analyzer_extended

Par requête:$0.00
M

mj_fast_prompt_analyzer

Par requête:$0.00
M

mj_fast_pic_reader

Par requête:$0.00
M

mj_fast_pan

Par requête:$0.06
M

mj_fast_modal

Par requête:$0.06
M

mj_fast_low_variation

Par requête:$0.06
M

mj_fast_inpaint

Par requête:$0.06
M

mj_fast_imagine

Par requête:$0.06
Midjourney drawing
M

mj_fast_high_variation

Par requête:$0.06
M

mj_fast_edits

Par requête:$0.06
M

mj_fast_describe

Par requête:$0.00
M

mj_fast_custom_zoom

Par requête:$0.00
M

mj_fast_blend

Par requête:$0.06
S

suno_uploads

Par requête:$0.02
Mettre en ligne de la musique
S

suno_persona_create

Par requête:$0.01
Create a personal style
S

suno_music

Par requête:$0.14
Générer de la musique
S

suno_lyrics

Par requête:$0.02
Generate lyrics
S

suno_concat

Par requête:$0.04
Song splicing
S

suno_act_wav

Par requête:$0.01
Get WAV format files
S

suno_act_timing

Par requête:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

Par requête:$0.01
S

suno_act_mp4

Par requête:$0.01
Generate MP4 MV
K

kling_virtual_try_on

Par requête:$0.20
K

kling_video

Par requête:$0.40
K

kling_tts

Par requête:$0.02
[Synthèse vocale] Nouveauté : conversion de texte en audio de qualité broadcast en ligne, avec fonction d’aperçu ● Peut générer simultanément un audio_id, utilisable avec n’importe quelle API Keling.
K

kling_multi_image2image

Par requête:$0.32
K

kling_multi_elements_submit

Par requête:$0.40
K

kling_multi_elements_preview

Par requête:$0.00
K

kling_multi_elements_init

Par requête:$0.00
K

kling_multi_elements_delete

Par requête:$0.00
K

kling_multi_elements_clear

Par requête:$0.00
K

kling_multi_elements_add

Par requête:$0.00
K

kling_lip_sync

Par requête:$0.20
K

kling_image_recognize

Par requête:$0.04
API de reconnaissance des éléments d’image Keling, utilisable pour la génération de vidéos à partir de références multi-images, fonctionnalités de montage vidéo multimodales ● Peut reconnaître des sujets, des visages, des vêtements, etc., et peut obtenir 4 ensembles de résultats (si disponibles) par requête.
K

kling_image_expand

Par requête:$0.16
K

kling_image

Par requête:$0.02
K

kling_identify_face

Par requête:$0.02
K

kling_extend

Par requête:$0.40
K

kling_effects

Par requête:$0.40
K

kling_avatar_image2video

Par requête:$0.16
K

kling_audio_video_to_audio

Par requête:$0.20
K

kling_audio_text_to_audio

Par requête:$0.20
K

kling_advanced_lip_syn

Par requête:$0.20
D

Doubao Seedream 4-5

Par requête:$0.04
Seedream 4.5 est le modèle d’images multimodal de ByteDance/Seed (texte→image + édition d’images) qui met l’accent sur une fidélité d’image de niveau production, un respect renforcé des prompts et une cohérence d’édition nettement améliorée (préservation du sujet, rendu du texte/de la typographie et réalisme des visages).
D

doubao-seedream-4-0-250828

Par requête:$0.02
D

doubao-seedream-3-0-t2i-250415

Par requête:$0.02
D

doubao-seededit-3-0-i2i-250628

Par requête:$0.02
D

doubao-seed-1-6-thinking-250715

Entrée:$0.04/M
Sortie:$1.07/M
D

doubao-seed-1-6-flash-250615

Entrée:$0.04/M
Sortie:$1.07/M
D

doubao-seed-1-6-250615

Entrée:$0.04/M
Sortie:$1.07/M
D

doubao-1.5-vision-pro-250328

Entrée:$0.33/M
Sortie:$1.00/M
D

doubao-1.5-vision-lite-250315

Entrée:$0.17/M
Sortie:$0.50/M
D

doubao-1.5-pro-32k-250115

Entrée:$0.18/M
Sortie:$0.44/M
D

doubao-1.5-pro-256k

Entrée:$1.10/M
Sortie:$1.99/M
D

doubao-1-5-vision-pro-32k

Entrée:$0.33/M
Sortie:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

Entrée:$0.33/M
Sortie:$1.00/M
D

doubao-1-5-thinking-pro-250415

Entrée:$0.45/M
Sortie:$1.79/M
D

doubao-1-5-pro-32k-250115

Entrée:$0.18/M
Sortie:$0.44/M
D

doubao-1-5-pro-32k

Entrée:$0.18/M
Sortie:$0.44/M
D

doubao-1-5-pro-256k-250115

Entrée:$0.56/M
Sortie:$1.00/M
D

doubao-1-5-pro-256k

Entrée:$1.10/M
Sortie:$1.99/M
D

doubao-1-5-lite-32k-250115

Entrée:$0.03/M
Sortie:$0.07/M
D

Doubao-Seed-1.6-thinking

Entrée:$0.04/M
Sortie:$1.07/M
D

Doubao-Seed-1.6-flash

Entrée:$0.04/M
Sortie:$1.07/M
D

Doubao-Seed-1.6

Entrée:$0.04/M
Sortie:$1.07/M
D

Doubao-1.5-vision-pro-32k

Entrée:$0.33/M
Sortie:$1.00/M
D

Doubao-1.5-vision-pro

Entrée:$0.33/M
Sortie:$1.00/M
D

Doubao-1.5-vision-lite

Entrée:$0.17/M
Sortie:$0.50/M
D

Doubao-1.5-thinking-vision-pro

Entrée:$0.33/M
Sortie:$1.00/M
D

Doubao-1.5-thinking-pro

Entrée:$0.45/M
Sortie:$1.79/M
D

Doubao-1.5-pro-32k

Entrée:$0.18/M
Sortie:$0.44/M
D

Doubao-1.5-lite-32k

Entrée:$0.07/M
Sortie:$0.13/M
R

runwayml_video_to_video

Par requête:$0.96
R

runwayml_upscale_video

Par requête:$0.16
R

runwayml_text_to_image

Par requête:$0.32
R

runwayml_image_to_video

Par requête:$0.32
R

runwayml_character_performance

Par requête:$0.40
R

runway_video2video

Par requête:$0.20
R

runway_video

Par requête:$0.20
R

runway_act_one

Par requête:$0.40
R

Black Forest Labs/FLUX 2 PRO

Par requête:$0.06
FLUX 2 PRO est le modèle commercial phare de la série FLUX 2, offrant une génération d’images de pointe avec une qualité et un niveau de détail sans précédent. Conçu pour des applications professionnelles et d’entreprise, il offre une fidélité supérieure aux prompts, des résultats photoréalistes et des capacités artistiques exceptionnelles. Ce modèle représente l’avant-garde de la technologie de synthèse d’images par IA.
R

Black Forest Labs/FLUX 2 FLEX

Par requête:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

Par requête:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

Par requête:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

Par requête:$0.13
R

stability-ai/stable-diffusion-3.5-large

Par requête:$0.21
R

stability-ai/stable-diffusion-3

Par requête:$0.11
R

stability-ai/stable-diffusion

Par requête:$0.02
R

stability-ai/sdxl

Par requête:$0.03
R

recraft-ai/recraft-v3-svg

Par requête:$0.26
R

recraft-ai/recraft-v3

Par requête:$0.13
R

ideogram-ai/ideogram-v2-turbo

Par requête:$0.06
R

ideogram-ai/ideogram-v2

Par requête:$0.10
R

bria/remove-background

Entrée:$60.00/M
Sortie:$60.00/M
R

bria/increase-resolution

Entrée:$60.00/M
Sortie:$60.00/M
R

bria/image-3.2

Entrée:$60.00/M
Sortie:$60.00/M
R

bria/genfill

Entrée:$60.00/M
Sortie:$60.00/M
R

bria/generate-background

Entrée:$60.00/M
Sortie:$60.00/M
R

bria/expand-image

Entrée:$60.00/M
Sortie:$60.00/M
R

bria/eraser

Entrée:$60.00/M
Sortie:$60.00/M
R

black-forest-labs/flux-schnell

Par requête:$0.01
black-forest-labs/flux-schnell est un modèle génératif texte‑vers‑image de Black Forest Labs, conçu pour l’échantillonnage rapide et l’exploration itérative des prompts. Il synthétise des styles et des compositions variés à partir de prompts courts, prend en charge les prompts négatifs et le contrôle de la graine, et peut produire des rendus haute résolution adaptés aux maquettes de produits, au concept art et aux visuels marketing. Les cas d’usage typiques incluent l’idéation interactive, la génération de vignettes et de bannières, ainsi que des variantes créatives automatisées dans les pipelines de contenu. Parmi les points techniques clés figurent la compatibilité avec la pile Hugging Face Diffusers, un contrôle flexible de la résolution et un échantillonneur efficace optimisé pour la vitesse sur des GPU courants.
R

black-forest-labs/flux-pro

Par requête:$0.18
black-forest-labs/flux-pro est un modèle génératif texte-vers-image de Black Forest Labs, conçu pour une synthèse d’images haute fidélité couvrant une large gamme de styles et de sujets. Il transforme des prompts détaillés en compositions cohérentes, avec des attributs contrôlables tels que le rapport d’aspect et le style via des paramètres de génération standard. Les cas d’usage typiques incluent l’art conceptuel, la visualisation de produits, des créations marketing et des scènes photoréalistes dans les flux de travail de conception. Les points forts techniques incluent la modalité texte-vers-image, le suivi d’instructions de type prompt et l’intégration aux chaînes d’outils courantes de génération d’images.
R

black-forest-labs/flux-kontext-pro

Par requête:$0.05
black-forest-labs/flux-kontext-pro est un modèle de diffusion multimodal pour la génération d’images contextuelle. Il synthétise des images à partir de prompts textuels et d’images de référence optionnelles, en préservant les indices de composition et de style pour des résultats bien ancrés dans le contexte. Les usages typiques incluent la création d’éléments de marque, des visuels produits et l’idéation visuelle à partir de planches d’ambiance ou de photos d’exemple. Les points forts techniques incluent des entrées texte et image, un échantillonnage conditionné par des références et des sorties reproductibles via le contrôle de la graine.
R

black-forest-labs/flux-kontext-max

Par requête:$0.10
black-forest-labs/flux-kontext-max est un modèle de génération d’images conditionné par le contexte, au sein de la gamme FLUX, conçu pour créer des images à partir de texte, avec des entrées de référence facultatives. Il permet une synthèse ancrée, la préservation du style ou du sujet, ainsi que des variations contrôlées guidées par le contexte visuel fourni. Les cas d’usage typiques incluent des créations cohérentes avec l’identité de marque, des maquettes de produits, la continuité des personnages et une idéation guidée par des moodboards. Parmi les points forts techniques figurent la génération basée sur la diffusion et le conditionnement multimodal à partir de texte et d’entrées de référence, adaptés aux flux de travail guidés par des références.
R

black-forest-labs/flux-dev

Par requête:$0.08
black-forest-labs/flux-dev est un modèle texte-vers-image à poids ouverts de Black Forest Labs pour générer des images à partir de prompts en langage naturel. Il produit des résultats photoréalistes et stylisés à partir de prompts détaillés et fonctionne avec les options de contrôle courantes dans les chaînes d’outils de diffusion. Les usages typiques incluent l’art conceptuel, la visualisation de produits, les visuels marketing et l’exploration créative rapide dans les flux de travail de conception. Les points forts techniques incluent une conception de flux rectifié basée sur un Transformer, l’intégration avec la bibliothèque Hugging Face Diffusers et un déploiement via des piles d’inférence GPU standard.
R

black-forest-labs/flux-1.1-pro-ultra

Par requête:$0.19
black-forest-labs/flux-1.1-pro-ultra est un Transformer de diffusion texte‑vers‑image conçu pour la synthèse d’images en production à partir de prompts en langage naturel. Il génère des résultats détaillés à partir d’instructions complexes, avec des contrôles pour le style, la composition, le rapport d’aspect, les prompts négatifs et la reproductibilité de la graine. Les usages typiques incluent les créations marketing, la visualisation de produits, l’art conceptuel et l’idéation de contenu. Les points techniques clés incluent une diffusion basée sur un Transformer, un guidage par encodeur de texte et un déploiement via des API d’inférence courantes avec des paramètres d’ordonnancement et de guidage.
R

black-forest-labs/flux-1.1-pro

Par requête:$0.13
black-forest-labs/flux-1.1-pro est un modèle de génération texte-vers-image de Black Forest Labs pour des visuels contrôlables et de haute fidélité. Il interprète des prompts détaillés pour produire des compositions couvrant divers styles et sujets, avec prise en charge du raffinement itératif et des variantes d’image dans les workflows de diffusion courants. Les cas d’usage typiques incluent l’art conceptuel, les maquettes de produits, les visuels marketing et l’exploration de scènes. Parmi les principales caractéristiques techniques figurent la synthèse d’images conditionnée par le texte et l’intégration avec des chaînes d’outils d’inférence standard utilisées pour les modèles de diffusion.
F

FLUX 2 PRO

Par requête:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

Par requête:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

Entrée:$0.22/M
Sortie:$1.15/M
Llama-4-Scout est un modèle de langage polyvalent destiné à l’interaction de type assistant et à l’automatisation. Il prend en charge le suivi des instructions, le raisonnement, la synthèse et les tâches de transformation, et peut fournir une assistance légère liée au code. Parmi les usages typiques figurent l’orchestration de conversations, les questions-réponses augmentées par la connaissance et la génération de contenus structurés. Parmi les points forts techniques figurent la compatibilité avec des schémas d’appel d’outils/fonctions, le prompting augmenté par la recherche et des sorties conformes à un schéma pour l’intégration dans les flux de travail des produits.
L

Llama-4-Maverick

Entrée:$0.48/M
Sortie:$1.44/M
Llama-4-Maverick est un modèle de langage généraliste pour la compréhension et la génération de texte. Il prend en charge les questions-réponses conversationnelles, la synthèse, la rédaction structurée et l’assistance de base à la programmation, avec des options de sorties structurées. Parmi les applications courantes figurent les assistants produits, les interfaces d’accès aux connaissances et l’automatisation de workflows qui requièrent un formatage cohérent. Les détails techniques tels que le nombre de paramètres, la fenêtre de contexte, la modalité et l’appel d’outils ou de fonctions varient selon la distribution ; intégrez-le conformément aux capacités documentées du déploiement.
M

minimax_video-01

Par requête:$1.44
M

minimax_minimax-hailuo-02

Par requête:$2.88
M

minimax_files_retrieve

Par requête:$0.00
M

minimax-m2

Entrée:$0.24/M
Sortie:$0.96/M
minimax-m2 est un grand modèle de langage compact et efficace, optimisé pour la programmation de bout en bout et les workflows d’agents, doté de 10 milliards de paramètres actifs (230 milliards de paramètres au total), offrant des performances proches de l’état de l’art en inférence générale, en utilisation d’outils et en exécution de tâches à plusieurs étapes, tout en maintenant une faible latence et une grande efficacité de déploiement. Le modèle excelle en génération de code, en édition multi-fichiers, dans les boucles compiler-exécuter-corriger et dans la correction des défauts lors de la vérification par tests, obtenant d’excellents résultats sur des benchmarks tels que SWE-Bench Verified, Multi-SWE-Bench et Terminal-Bench, et faisant preuve de compétitivité en planification de tâches à long cycle, en recherche d’information et en récupération après erreurs d’exécution dans des évaluations d’agents comme BrowseComp et GAIA. Selon Artificial Analysis, MiniMax-M2 se classe parmi les meilleurs modèles open source dans des domaines d’intelligence globale tels que les mathématiques, l’inférence scientifique et le suivi d’instructions. Son faible nombre de paramètres actifs permet une inférence rapide, une forte simultanéité et de meilleures économies unitaires, ce qui en fait un choix idéal pour le déploiement à grande échelle d’agents, les outils d’assistance aux développeurs et les applications pilotées par l’inférence nécessitant rapidité de réponse et efficacité en termes de coûts.
F

flux-pro-finetuned

Par requête:$0.07
F

flux-pro-1.1-ultra-finetuned

Par requête:$0.10
F

flux-pro-1.1-ultra

Par requête:$0.07
F

flux-pro-1.1

Par requête:$0.05
F

flux-pro-1.0-fill-finetuned

Par requête:$0.10
F

flux-pro-1.0-fill

Par requête:$0.06
F

flux-pro-1.0-depth-finetuned

Par requête:$0.10
F

flux-pro-1.0-depth

Par requête:$0.06
F

flux-pro-1.0-canny-finetuned

Par requête:$0.10
F

flux-pro-1.0-canny

Par requête:$0.06
F

flux-pro

Par requête:$0.05
F

flux-kontext-pro

Par requête:$0.05
F

flux-kontext-max

Par requête:$0.10
F

flux-finetune

Par requête:$0.05
F

flux-dev

Par requête:$0.03
H

hunyuan-vision

Entrée:$2.01/M
Sortie:$2.01/M
H

hunyuan-turbos-vision-20250619

Entrée:$0.33/M
Sortie:$1.00/M
H

hunyuan-turbos-vision

Entrée:$0.33/M
Sortie:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

Entrée:$0.17/M
Sortie:$0.67/M
H

hunyuan-turbos-latest

Entrée:$0.09/M
Sortie:$0.22/M
H

hunyuan-turbos-20250604

Entrée:$0.09/M
Sortie:$0.22/M
H

hunyuan-turbos-20250515

Entrée:$0.09/M
Sortie:$0.22/M
H

hunyuan-turbos-20250416

Entrée:$0.09/M
Sortie:$0.22/M
H

hunyuan-turbos-20250313

Entrée:$0.09/M
Sortie:$0.22/M
H

hunyuan-t1-vision-20250619

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-t1-vision

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-t1-latest

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-t1-20250711

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-t1-20250529

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-t1-20250521

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-t1-20250403

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-t1-20250321

Entrée:$0.11/M
Sortie:$0.45/M
H

hunyuan-standard-256K

Entrée:$0.06/M
Sortie:$0.22/M
H

hunyuan-standard

Entrée:$0.09/M
Sortie:$0.22/M
H

hunyuan-role

Entrée:$0.45/M
Sortie:$0.89/M
H

hunyuan-pro

Entrée:$1.60/M
Sortie:$1.60/M
H

hunyuan-lite

Entrée:$1.60/M
Sortie:$1.60/M
H

hunyuan-large-vision

Entrée:$0.45/M
Sortie:$1.34/M
H

hunyuan-large

Entrée:$0.45/M
Sortie:$1.34/M
H

hunyuan-functioncall

Entrée:$0.45/M
Sortie:$0.89/M
H

hunyuan-embedding

Entrée:$0.08/M
Sortie:$0.08/M
H

hunyuan-code

Entrée:$0.39/M
Sortie:$0.78/M
H

hunyuan-all

Entrée:$0.11/M
Sortie:$0.22/M
H

hunyuan-a13b

Entrée:$0.06/M
Sortie:$0.22/M
H

hunyuan

Entrée:$0.11/M
Sortie:$0.11/M
Z

glm-zero-preview

Entrée:$60.00/M
Sortie:$60.00/M
Z

glm-4v-plus

Entrée:$4.80/M
Sortie:$4.80/M
Z

glm-4v

Entrée:$24.00/M
Sortie:$24.00/M
Z

GLM 4.6

Contexte:200
Entrée:$0.64/M
Sortie:$2.56/M
Le dernier modèle phare de Zhipu, GLM-4.6, est lancé : paramètres totaux 355B, paramètres actifs 32B. Les capacités fondamentales globales dépassent celles de GLM-4.5. Codage : s’aligne sur Claude Sonnet 4, meilleur en Chine. Contexte : étendu à 200K (initialement 128K). Inférence : améliorée, prend en charge les appels d’outils. Recherche : outils et framework d’agents optimisés. Rédaction : davantage alignée sur les préférences humaines, le style d’écriture et le jeu de rôle. Multilingue : qualité de traduction améliorée.
Z

glm-4.5-x

Entrée:$3.20/M
Sortie:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

Entrée:$0.16/M
Sortie:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

Entrée:$1.60/M
Sortie:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

Entrée:$0.16/M
Sortie:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

Entrée:$0.48/M
Sortie:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

Entrée:$24.00/M
Sortie:$24.00/M
Z

glm-4-long

Entrée:$0.48/M
Sortie:$0.48/M
Z

glm-4-flash

Entrée:$0.05/M
Sortie:$0.05/M
Z

glm-4-airx

Entrée:$4.80/M
Sortie:$4.80/M
Z

glm-4-air

Entrée:$0.48/M
Sortie:$0.48/M
Z

glm-4-0520

Entrée:$24.00/M
Sortie:$24.00/M
Z

glm-4

Entrée:$24.00/M
Sortie:$24.00/M
Z

glm-3-turbo

Entrée:$1.60/M
Sortie:$1.60/M