Gemini 3 Pro (Preview) est le tout nouveau modèle phare de raisonnement multimodal de Google/DeepMind au sein de la famille Gemini 3. Il est présenté comme leur « modèle le plus intelligent à ce jour », conçu pour le raisonnement approfondi, les workflows agentiques, le codage avancé et la compréhension multimodale à long contexte (texte, images, audio, vidéo, code et intégrations d’outils).
Fonctionnalités clés
- Modalités : texte, image, vidéo, audio, PDF (et sorties structurées d’outils).
- Agentique/outillage : appel de fonctions intégré, recherche comme outil, exécution de code, contexte d’URL, et prise en charge de l’orchestration d’agents multi-étapes. Le mécanisme de « thought-signature » préserve le raisonnement en plusieurs étapes d’un appel à l’autre.
- Codage et « vibe coding » : optimisé pour la génération front-end, la génération d’UI interactive et le codage agentique (il domine les classements pertinents rapportés par Google). Il est présenté comme leur modèle de « vibe coding » le plus puissant à ce jour.
- Nouveaux contrôles pour développeurs :
thinking_level(low|high) pour arbitrer entre coût/latence et profondeur de raisonnement, etmedia_resolutionpour contrôler la fidélité multimodale par image ou par frame vidéo. Ils aident à équilibrer performances, latence et coût.
Performances sur benchmarks
- Gemini3Pro a obtenu la première place sur LMARE avec un score de 1501, dépassant les 1484 points de Grok-4.1-thinking et devançant également Claude Sonnet 4.5 et Opus 4.1.
- Il a également pris la première place sur l’arène de programmation WebDevArena avec un score de 1487.
- Sur Humanity’s Last Exam en raisonnement académique, il a atteint 37,5 % (sans outils) ; sur GPQA Diamond en sciences, 91,9 % ; et sur la compétition de mathématiques MathArena Apex, 23,4 %, établissant un nouveau record.
- En capacités multimodales, MMMU-Pro a atteint 81 % ; et en compréhension vidéo sur Video-MMMU, 87,6 %.
Détails techniques et architecture
- Paramètre « Thinking level » : Gemini 3 expose un contrôle
thinking_levelqui permet aux développeurs d’arbitrer entre profondeur de raisonnement interne et latence/coût. Le modèle traitethinking_levelcomme une allocation relative pour le raisonnement interne en plusieurs étapes plutôt qu’une garantie stricte de tokens. La valeur par défaut est généralementhighpour Pro. Il s’agit d’un nouveau contrôle explicite permettant d’ajuster la planification multi-étapes et la profondeur de la chaîne de raisonnement. - Sorties structurées et outils : Le modèle prend en charge les sorties JSON structurées et peut être combiné avec des outils intégrés (ancrage via Google Search, contexte d’URL, exécution de code, etc.). Certaines fonctionnalités combinant sorties structurées et outils sont en préversion uniquement pour
gemini-3-pro-preview. - Intégrations multimodales et agentiques : Gemini 3 Pro est explicitement conçu pour des workflows agentiques (outillage + agents multiples sur code/terminaux/navigateur).
Limitations et mises en garde connues
- Factualité imparfaite — des hallucinations restent possibles. Malgré les améliorations substantielles de factualité revendiquées par Google, une vérification ancrée et une revue humaine demeurent nécessaires dans les contextes à fort enjeu (juridique, médical, financier).
- Les performances sur les longs contextes varient selon la tâche. La prise en charge d’une fenêtre d’entrée de 1M est une capacité avérée, mais l’efficacité empirique peut diminuer sur certains benchmarks à des longueurs extrêmes (des baisses ponctuelles ont été observées à 1M sur certains tests de long contexte).
- Arbitrages coût et latence. Des contextes volumineux et des réglages
thinking_levelplus élevés augmentent le calcul, la latence et le coût ; des paliers tarifaires s’appliquent selon les volumes de jetons. Utilisezthinking_levelet des stratégies de découpage pour maîtriser les coûts. - Sécurité et filtres de contenu. Google continue d’appliquer des politiques de sécurité et des couches de modération ; certains contenus et actions restent restreints ou déclencheront des modes de refus.
Comment Gemini 3 Pro Preview se compare aux autres modèles de pointe
Comparaison de haut niveau (aperçu → qualitative) :
Par rapport à Gemini 2.5 Pro : des améliorations par paliers en matière de raisonnement, d’utilisation d’outils agentiques et d’intégration multimodale ; une gestion de contextes bien plus vastes et une meilleure compréhension des contenus longs. DeepMind affiche des gains constants en raisonnement académique, en codage et sur les tâches multimodales.
Par rapport à GPT-5.1 et Claude Sonnet 4.5 (d’après les rapports) : sur la batterie de benchmarks de Google/DeepMind, Gemini 3 Pro est présenté comme leader sur plusieurs métriques liées aux agents, au multimodal et aux longs contextes (voir Terminal-Bench, MMMU-Pro, AIME). Les résultats comparatifs varient selon les tâches.
Cas d’usage typiques et à forte valeur
- Synthèse de grands documents / livres et questions-réponses : le support des longs contextes le rend attractif pour les équipes juridiques, de recherche et de conformité.
- Compréhension et génération de code à l’échelle d’un dépôt : l’intégration aux chaînes d’outils de développement et le raisonnement amélioré facilitent les refactorings de vastes bases de code et les workflows de revue de code automatisée.
- Assistants produits multimodaux : workflows image + texte + audio (support client ingérant des captures d’écran, des extraits d’appels et des documents).
- Génération et édition de médias (photo → vidéo) : les fonctionnalités antérieures de la famille Gemini incluent désormais des capacités photo→vidéo de type Veo / Flow ; la préversion suggère une génération multimédia plus poussée pour les prototypes et les workflows médias.
Comment accéder à l’API Gemini 3 Pro
Étape 1 : S’inscrire pour obtenir une clé API
Connectez-vous à cometapi.com. Si vous n’êtes pas encore utilisateur, veuillez d’abord vous inscrire. Connectez-vous à votre console CometAPI. Récupérez la clé API d’identification de l’interface. Cliquez sur « Add Token » au niveau du jeton API dans l’espace personnel, obtenez la clé de jeton : sk-xxxxx et soumettez.
Étape 2 : Envoyer des requêtes à l’API Gemini 3 Pro
Sélectionnez le point de terminaison « gemini-3-pro » pour envoyer la requête API et définissez le corps de requête. La méthode et le corps de requête sont disponibles dans la documentation API de notre site. Notre site propose également des tests Apifox pour votre commodité. Remplacez <YOUR_API_KEY> par votre clé CometAPI réelle depuis votre compte. Les URL de base sont Génération de contenu Gemini et Chat
Insérez votre question ou requête dans le champ content — c’est à cela que le modèle répondra. Traitez la réponse de l’API pour obtenir la réponse générée.
Étape 3 : Récupérer et vérifier les résultats
Traitez la réponse de l’API pour obtenir la réponse générée. Après traitement, l’API renvoie le statut de la tâche et les données de sortie.