Gemini 3 Pro (Preview) est le tout dernier modèle phare de raisonnement multimodal de Google/DeepMind au sein de la famille Gemini 3. Il est présenté comme leur « modèle le plus intelligent à ce jour », conçu pour le raisonnement approfondi, des workflows agentiques, le codage avancé et la compréhension multimodale à long contexte (texte, images, audio, vidéo, code et intégrations d’outils).
Principales fonctionnalités
- Modalités : Texte, image, vidéo, audio, PDF (et sorties structurées d’outils).
- Agentique/outillage : Appels de fonction intégrés, search-as-tool, exécution de code, contexte d’URL, et prise en charge de l’orchestration d’agents multi-étapes. Le mécanisme de thought-signature préserve le raisonnement multi-étapes entre les appels.
- Codage et « vibe coding » : Optimisé pour la génération de front-end, la création d’interfaces utilisateur interactives, et le codage agentique (il arrive en tête des classements pertinents rapportés par Google). Il est présenté comme leur modèle de « vibe-coding » le plus performant à ce jour.
- Nouveaux contrôles pour développeurs :
thinking_level(low|high) pour arbitrer entre coût/latence et profondeur de raisonnement, etmedia_resolutionpour contrôler la fidélité multimodale par image ou par frame vidéo. Ceux-ci aident à équilibrer performance, latence et coût.
Performances aux benchmarks
- Gemini3Pro a obtenu la première place sur LMARE avec un score de 1501, dépassant les 1484 points de Grok-4.1-thinking et devançant également Claude Sonnet 4.5 et Opus 4.1.
- Il a également obtenu la première place dans l’arène de programmation WebDevArena avec un score de 1487.
- Dans Humanity’s Last Exam (academic reasoning), il a atteint 37.5% (sans outils) ; dans GPQA Diamond (science), 91.9% ; et dans la compétition de mathématiques MathArena Apex, 23.4%, établissant un nouveau record.
- En capacités multimodales, MMMU-Pro a atteint 81% ; et en compréhension vidéo sur Video-MMMU, 87.6%.

Détails techniques et architecture
- Paramètre « Thinking level » : Gemini 3 expose un contrôle
thinking_levelqui permet aux développeurs d’arbitrer entre la profondeur du raisonnement interne et la latence/le coût. Le modèle considèrethinking_levelcomme une allocation relative pour le raisonnement interne multi-étapes, plutôt qu’une garantie stricte de jetons. La valeur par défaut est généralementhighpour Pro. Il s’agit d’un nouveau contrôle explicite permettant aux développeurs d’ajuster la planification multi-étapes et la profondeur de la chaîne de pensée. - Sorties structurées et outils : Le modèle prend en charge des sorties JSON structurées et peut être combiné avec des outils intégrés (ancrage via Google Search, contexte d’URL, exécution de code, etc.). Certaines fonctionnalités associant sorties structurées et outils sont en mode preview uniquement pour
gemini-3-pro-preview. - Intégrations multimodales et agentiques : Gemini 3 Pro est explicitement conçu pour des workflows agentiques (outillage + multiples agents sur code/terminaux/navigateur).
Limitations et mises en garde connues
- Factualité imparfaite — des hallucinations restent possibles. Malgré les fortes améliorations de factualité revendiquées par Google, une vérification ancrée et une revue humaine demeurent nécessaires dans les contextes à enjeux élevés (juridique, médical, financier).
- Les performances sur les longs contextes varient selon la tâche. La prise en charge d’une fenêtre d’entrée de 1M est une capacité ferme, mais l’efficacité empirique peut diminuer sur certains benchmarks aux longueurs extrêmes (des baisses ponctuelles ont été observées à 1M sur certains tests de long contexte).
- Compromis entre coût et latence. Les grands contextes et des réglages
thinking_levelplus élevés augmentent le calcul, la latence et le coût ; des paliers de tarification s’appliquent selon les volumes de jetons. Utilisezthinking_levelet des stratégies de découpage pour maîtriser les coûts. - Sécurité et filtres de contenu. Google continue d’appliquer des politiques de sécurité et des couches de modération ; certains contenus et actions restent restreints ou déclenchent des modes de refus.
Comment Gemini 3 Pro Preview se compare aux autres modèles de pointe
Comparaison de haut niveau (preview → qualitative) :
Face à Gemini 2.5 Pro : Améliorations franches du raisonnement, de l’utilisation d’outils agentiques et de l’intégration multimodale ; gestion de contextes bien plus vastes et meilleure compréhension des formats longs. DeepMind montre des gains constants en raisonnement académique, codage et tâches multimodales.
Face à GPT-5.1 et Claude Sonnet 4.5 (selon les rapports) : Sur le panel de benchmarks de Google/DeepMind, Gemini 3 Pro est présenté comme leader sur plusieurs métriques agentiques, multimodales et de long contexte (voir Terminal-Bench, MMMU-Pro, AIME). Les résultats comparatifs varient selon la tâche.
Cas d’usage typiques et à forte valeur
- Résumé de grands documents/livres et Q&R : la prise en charge de longs contextes le rend attractif pour les équipes juridiques, de recherche et de conformité.
- Compréhension et génération de code à l’échelle du dépôt : l’intégration aux chaînes d’outils de développement et le raisonnement amélioré facilitent les refactorisations de grandes bases de code et les workflows d’examen de code automatisés.
- Assistants produits multimodaux : workflows image + texte + audio (support client ingérant des captures d’écran, des extraits d’appels et des documents).
- Génération et édition de médias (photo → vidéo) : les fonctionnalités antérieures de la famille Gemini incluent désormais des capacités photo→vidéo de style Veo / Flow ; la preview suggère une génération multimédia plus poussée pour des prototypes et des workflows média.