Home/Models/Google/Gemini 3 Pro
G

Gemini 3 Pro

Entrée:$1.6/M
Sortie:$9.6/M
Contexte:200.0k
Sortie maximale:200.0k
Gemini 3 Pro est un modèle polyvalent de la famille Gemini, disponible en préversion pour l’évaluation et le prototypage. Il prend en charge le suivi des instructions, le raisonnement multi-tours ainsi que des tâches liées au code et aux données, avec des sorties structurées et l’appel d’outils et de fonctions pour l’automatisation des flux de travail. Les cas d’usage typiques incluent les assistants de conversation, la synthèse et la réécriture, les questions-réponses augmentées par la recherche, l’extraction de données et une assistance légère au codage sur différentes applications et services. Les points techniques clés incluent un déploiement via API, des réponses en streaming, des contrôles de sécurité et une préparation à l’intégration, avec des capacités multimodales selon la configuration de la préversion.
Nouveau
Usage commercial
Playground
Aperçu
Fonctionnalités
Tarification
API
Versions

Gemini 3 Pro (Preview) est le tout nouveau modèle phare de raisonnement multimodal de Google/DeepMind au sein de la famille Gemini 3. Il est présenté comme leur « modèle le plus intelligent à ce jour », conçu pour le raisonnement approfondi, les workflows agentiques, le codage avancé et la compréhension multimodale à long contexte (texte, images, audio, vidéo, code et intégrations d’outils).

Fonctionnalités clés

  • Modalités : texte, image, vidéo, audio, PDF (et sorties structurées d’outils).
  • Agentique/outillage : appel de fonctions intégré, recherche comme outil, exécution de code, contexte d’URL, et prise en charge de l’orchestration d’agents multi-étapes. Le mécanisme de « thought-signature » préserve le raisonnement en plusieurs étapes d’un appel à l’autre.
  • Codage et « vibe coding » : optimisé pour la génération front-end, la génération d’UI interactive et le codage agentique (il domine les classements pertinents rapportés par Google). Il est présenté comme leur modèle de « vibe coding » le plus puissant à ce jour.
  • Nouveaux contrôles pour développeurs : thinking_level (low|high) pour arbitrer entre coût/latence et profondeur de raisonnement, et media_resolution pour contrôler la fidélité multimodale par image ou par frame vidéo. Ils aident à équilibrer performances, latence et coût.

Performances sur benchmarks

  • Gemini3Pro a obtenu la première place sur LMARE avec un score de 1501, dépassant les 1484 points de Grok-4.1-thinking et devançant également Claude Sonnet 4.5 et Opus 4.1.
  • Il a également pris la première place sur l’arène de programmation WebDevArena avec un score de 1487.
  • Sur Humanity’s Last Exam en raisonnement académique, il a atteint 37,5 % (sans outils) ; sur GPQA Diamond en sciences, 91,9 % ; et sur la compétition de mathématiques MathArena Apex, 23,4 %, établissant un nouveau record.
  • En capacités multimodales, MMMU-Pro a atteint 81 % ; et en compréhension vidéo sur Video-MMMU, 87,6 %.

Détails techniques et architecture

  • Paramètre « Thinking level » : Gemini 3 expose un contrôle thinking_level qui permet aux développeurs d’arbitrer entre profondeur de raisonnement interne et latence/coût. Le modèle traite thinking_level comme une allocation relative pour le raisonnement interne en plusieurs étapes plutôt qu’une garantie stricte de tokens. La valeur par défaut est généralement high pour Pro. Il s’agit d’un nouveau contrôle explicite permettant d’ajuster la planification multi-étapes et la profondeur de la chaîne de raisonnement.
  • Sorties structurées et outils : Le modèle prend en charge les sorties JSON structurées et peut être combiné avec des outils intégrés (ancrage via Google Search, contexte d’URL, exécution de code, etc.). Certaines fonctionnalités combinant sorties structurées et outils sont en préversion uniquement pour gemini-3-pro-preview.
  • Intégrations multimodales et agentiques : Gemini 3 Pro est explicitement conçu pour des workflows agentiques (outillage + agents multiples sur code/terminaux/navigateur).

Limitations et mises en garde connues

  1. Factualité imparfaite — des hallucinations restent possibles. Malgré les améliorations substantielles de factualité revendiquées par Google, une vérification ancrée et une revue humaine demeurent nécessaires dans les contextes à fort enjeu (juridique, médical, financier).
  2. Les performances sur les longs contextes varient selon la tâche. La prise en charge d’une fenêtre d’entrée de 1M est une capacité avérée, mais l’efficacité empirique peut diminuer sur certains benchmarks à des longueurs extrêmes (des baisses ponctuelles ont été observées à 1M sur certains tests de long contexte).
  3. Arbitrages coût et latence. Des contextes volumineux et des réglages thinking_level plus élevés augmentent le calcul, la latence et le coût ; des paliers tarifaires s’appliquent selon les volumes de jetons. Utilisez thinking_level et des stratégies de découpage pour maîtriser les coûts.
  4. Sécurité et filtres de contenu. Google continue d’appliquer des politiques de sécurité et des couches de modération ; certains contenus et actions restent restreints ou déclencheront des modes de refus.

Comment Gemini 3 Pro Preview se compare aux autres modèles de pointe

Comparaison de haut niveau (aperçu → qualitative) :

Par rapport à Gemini 2.5 Pro : des améliorations par paliers en matière de raisonnement, d’utilisation d’outils agentiques et d’intégration multimodale ; une gestion de contextes bien plus vastes et une meilleure compréhension des contenus longs. DeepMind affiche des gains constants en raisonnement académique, en codage et sur les tâches multimodales.

Par rapport à GPT-5.1 et Claude Sonnet 4.5 (d’après les rapports) : sur la batterie de benchmarks de Google/DeepMind, Gemini 3 Pro est présenté comme leader sur plusieurs métriques liées aux agents, au multimodal et aux longs contextes (voir Terminal-Bench, MMMU-Pro, AIME). Les résultats comparatifs varient selon les tâches.


Cas d’usage typiques et à forte valeur

  • Synthèse de grands documents / livres et questions-réponses : le support des longs contextes le rend attractif pour les équipes juridiques, de recherche et de conformité.
  • Compréhension et génération de code à l’échelle d’un dépôt : l’intégration aux chaînes d’outils de développement et le raisonnement amélioré facilitent les refactorings de vastes bases de code et les workflows de revue de code automatisée.
  • Assistants produits multimodaux : workflows image + texte + audio (support client ingérant des captures d’écran, des extraits d’appels et des documents).
  • Génération et édition de médias (photo → vidéo) : les fonctionnalités antérieures de la famille Gemini incluent désormais des capacités photo→vidéo de type Veo / Flow ; la préversion suggère une génération multimédia plus poussée pour les prototypes et les workflows médias.

Comment accéder à l’API Gemini 3 Pro

Étape 1 : S’inscrire pour obtenir une clé API

Connectez-vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez-vous à votre console CometAPI. Récupérez la clé API d’identification de l’interface. Cliquez sur « Add Token » au niveau du jeton API dans l’espace personnel, obtenez la clé de jeton : sk-xxxxx et soumettez.

clé CometAPI

Étape 2 : Envoyer des requêtes à l’API Gemini 3 Pro

Sélectionnez le point de terminaison « gemini-3-pro » pour envoyer la requête API et définissez le corps de requête. La méthode et le corps de requête sont disponibles dans la documentation API de notre site. Notre site propose également des tests Apifox pour votre commodité. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle depuis votre compte. Les URL de base sont Génération de contenu Gemini et Chat

Insérez votre question ou requête dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.

Étape 3 : Récupérer et vérifier les résultats

Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API renvoie le statut de la tâche et les données de sortie.

FAQ

What is the context window and output limit for Gemini 3 Pro?

Gemini 3 Pro prend en charge une fenêtre de contexte d'entrée de 1 million de tokens, avec jusqu'à 64,000 tokens en sortie, ce qui le rend idéal pour analyser des bases de code entières ou des documents volumineux.

How does the thinking_level parameter work in Gemini 3 Pro?

Gemini 3 Pro utilise par défaut un raisonnement dynamique. Définissez thinking_level sur 'low' pour des réponses plus rapides lorsqu'un raisonnement complexe n'est pas nécessaire, ou sur 'high' (par défaut) pour maximiser la profondeur de raisonnement pour des tâches complexes.

Does Gemini 3 Pro support Google Search grounding?

Oui, Gemini 3 Pro prend en charge Google Search grounding, File Search, Code Execution et URL Context. Notez que Google Maps grounding et Computer Use ne sont pas encore pris en charge dans Gemini 3.

What makes Gemini 3 Pro different from Gemini 2.5 Pro?

Gemini 3 Pro offre des améliorations progressives des workflows agentiques et du codage autonome. Il utilise des Thought signatures pour le contexte de raisonnement entre les appels d'API, et dispose d'une date de coupure des connaissances fixée à janvier 2025.

Can Gemini 3 Pro combine structured outputs with built-in tools?

Oui, les modèles Gemini 3 permettent de combiner des sorties structurées (JSON schema) avec des outils intégrés comme Google Search, URL Context et Code Execution dans une même requête.

Why should I keep temperature at 1.0 for Gemini 3 Pro?

Google recommande fortement de conserver temperature à la valeur par défaut 1.0. Des valeurs plus basses peuvent provoquer des boucles inattendues ou dégrader les performances sur les tâches mathématiques et de raisonnement complexe.

What are thought signatures and why are they important?

Les Thought signatures sont des représentations chiffrées du raisonnement interne du modèle. Pour l'appel de fonctions, elles sont strictement appliquées—l'absence de signatures renvoie des erreurs 400. Les SDKs officiels les gèrent automatiquement.

Fonctionnalités pour Gemini 3 Pro

ID du modèle (aperçu) : `gemini-3-pro-preview`. Types d'entrée : Texte, Image, Vidéo, Audio, PDF. Sortie : Texte Contexte / limites de jetons : Entrée ≈ 1,048,576 jetons ; Sortie ≤ 65,536 jetons. Date de coupure des connaissances : janvier 2025 (utilise Search Grounding pour des informations plus récentes). Capacités (sélection) : appel de fonctions, exécution de code, recherche de fichiers, sorties structurées, Search Grounding. Non pris en charge : génération audio, génération d'images, API en direct, segmentation d'images, Google Maps grounding (certaines fonctionnalités diffèrent de Gemini 2.5).

Tarification pour Gemini 3 Pro

Découvrez des tarifs compétitifs pour Gemini 3 Pro , conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment Gemini 3 Pro peut améliorer vos projets tout en maîtrisant les coûts.

gemini-3-pro (same price across variants shown)

Model familyVariant (model name)Input price (USD / 1M tokens)Output price (USD / 1M tokens)
gemini-3-progemini-3-pro-preview$1.60$9.60
gemini-3-progemini-3-pro-preview-thinking$1.60$9.60
gemini-3-progemini-3-pro-all$1.60$9.60

Exemple de code et API pour Gemini 3 Pro

Gemini 3 Pro est le tout dernier modèle phare de raisonnement multimodal de Google/DeepMind au sein de la famille Gemini 3. Il est présenté comme "leur modèle le plus intelligent à ce jour", conçu pour le raisonnement approfondi, des flux de travail pilotés par des agents, la programmation avancée et la compréhension multimodale de longs contextes (texte, images, audio, vidéo, code et intégrations d'outils).
Python
JavaScript
Curl
from google import genai
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com"

client = genai.Client(
    http_options={"api_version": "v1beta", "base_url": BASE_URL},
    api_key=COMETAPI_KEY,
)

response = client.models.generate_content(
    model="gemini-3-pro-preview",
    contents="Explain how AI works in a few words",
)

print(response.text)

Versions de Gemini 3 Pro

La raison pour laquelle Gemini 3 Pro dispose de plusieurs instantanés peut inclure des facteurs potentiels tels que des variations de sortie après des mises à jour nécessitant des instantanés plus anciens pour la cohérence, offrant aux développeurs une période de transition pour l'adaptation et la migration, et différents instantanés correspondant à des points de terminaison globaux ou régionaux pour optimiser l'expérience utilisateur. Pour les différences détaillées entre les versions, veuillez consulter la documentation officielle.
ID du modèleDescriptionDisponibilitéRequête
gemini-3-pro-allLa technologie utilisée est non officielle et la génération est instable, etc.✅Chat format
gemini-3-proRecommandé, pointe vers le modèle le plus récent❌Gemini Generating Content
gemini-3-pro-previewAperçu officiel❌Gemini Generating Content

Plus de modèles