Gemini 3 Pro (Preview) is Google/DeepMind’s nieuwste vlaggenschip multimodale redeneermodel in de Gemini 3-familie. Het wordt gepositioneerd als hun “meest intelligente model tot nu toe”, ontworpen voor diepgaand redeneren, agentische workflows, geavanceerd coderen en multimodaal begrip met lange context (tekst, afbeeldingen, audio, video, code en toolintegraties).
Belangrijkste kenmerken
- Modaliteiten: Tekst, afbeelding, video, audio, pdf’s (en gestructureerde tooluitvoer).
- Agentisch/tooling: Ingebouwde functieaanroepen, search-as-tool, code-uitvoering, URL-context en ondersteuning voor het orkestreren van meerstapsagenten. Het thought-signature-mechanisme behoudt meerstapsredenering over meerdere aanroepen heen.
- Coderen & “vibe coding”: Geoptimaliseerd voor front-endgeneratie, interactieve UI-generatie en agentisch coderen (het voert volgens Google relevante ranglijsten aan). Het wordt gepositioneerd als hun sterkste “vibe-coding”-model tot nu toe.
- Nieuwe ontwikkelaarsinstellingen:
thinking_level(low|high) om kosten/latentie af te wegen tegen redeneerdiepte, enmedia_resolutionregelt de multimodale kwaliteit per afbeelding of videoframe. Deze helpen prestaties, latentie en kosten in balans te brengen.
Benchmarkprestaties
- De Gemini3Pro behaalde de eerste plaats in LMARE met een score van 1501, waarmee het Grok-4.1-thinking met 1484 punten overtrof en ook Claude Sonnet 4.5 en Opus 4.1 voorbleef.
- Het behaalde ook de eerste plaats in de WebDevArena-programmeerarena met een score van 1487.
- In Humanity’s Last Exam voor academisch redeneren behaalde het 37.5% (zonder tools); in GPQA Diamond science, 91.9%; en in de wiskundewedstrijd MathArena Apex, 23.4%, waarmee een nieuw record werd gevestigd.
- Op het gebied van multimodale capaciteiten behaalde MMMU-Pro 81%; en in Video-MMMU-videobegrip, 87.6%.
Technische details & architectuur
- Parameter “thinking level”: Gemini 3 biedt een
thinking_level-instelling waarmee ontwikkelaars de diepte van interne redenering kunnen afwegen tegen latentie/kosten. Het model behandeltthinking_levelals een relatieve ruimte voor interne meerstapsredenering in plaats van als een strikte tokengarantie. Standaard is dit doorgaanshighvoor Pro. Dit is een expliciete nieuwe instelling voor ontwikkelaars om meerstapsplanning en de diepte van chain-of-thought af te stemmen. - Gestructureerde uitvoer & tools: Het model ondersteunt gestructureerde JSON-uitvoer en kan worden gecombineerd met ingebouwde tools (Google Search-grounding, URL-context, code-uitvoering, enz.). Sommige functies voor gestructureerde uitvoer + tools zijn alleen preview voor
gemini-3-pro-preview. - Multimodale en agentische integraties: Gemini 3 Pro is expliciet gebouwd voor agentische workflows (tooling + meerdere agenten over code/terminals/browser).
Beperkingen & bekende aandachtspunten
- Niet perfect feitelijk — hallucinaties blijven mogelijk. Ondanks sterke verbeteringen in feitelijke nauwkeurigheid die door Google worden geclaimd, blijven gegronde verificatie en menselijke beoordeling noodzakelijk in omgevingen met hoge inzet (juridisch, medisch, financieel).
- Prestaties bij lange context variëren per taak. Ondersteuning voor een invoervenster van 1M is een harde capaciteit, maar de empirische effectiviteit kan op sommige benchmarks afnemen bij extreme lengtes (waargenomen puntsgewijze dalingen bij 1M op sommige tests met lange context).
- Afwegingen tussen kosten en latentie. Grote contexten en hogere
thinking_level-instellingen verhogen rekengebruik, latentie en kosten; prijsniveaus zijn van toepassing op basis van tokenvolumes. Gebruikthinking_levelen chunkingstrategieën om de kosten te beheersen. - Veiligheid en contentfilters. Google blijft veiligheidsbeleid en moderatielagen toepassen; bepaalde inhoud en acties blijven beperkt of zullen een weigeringsmodus activeren.
Hoe Gemini 3 Pro Preview zich verhoudt tot andere topmodellen
Vergelijking op hoog niveau (preview → kwalitatief):
Vergeleken met Gemini 2.5 Pro: Stapsgewijze verbeteringen in redeneren, agentisch toolgebruik en multimodale integratie; veel grotere contextverwerking en beter begrip van lange teksten. DeepMind laat consistente vooruitgang zien op het gebied van academisch redeneren, coderen en multimodale taken.
Vergeleken met GPT-5.1 en Claude Sonnet 4.5 (zoals gerapporteerd): Op Google/DeepMind’s benchmarkoverzicht wordt Gemini 3 Pro gepresenteerd als koploper op verschillende agentische, multimodale en long-context-metrics (zie Terminal-Bench, MMMU-Pro, AIME). Vergelijkende resultaten variëren per taak.
Typische en waardevolle use-cases
- Samenvatting & vraag-en-antwoord voor grote documenten / boeken: ondersteuning voor lange context maakt het aantrekkelijk voor juridische, onderzoeks- en compliance-teams.
- Codebegrip & generatie op reposchaal: integratie met coding-toolchains en verbeterd redeneren helpen bij refactors van grote codebases en geautomatiseerde workflows voor codereview.
- Multimodale productassistenten: workflows met afbeeldingen + tekst + audio (klantenondersteuning die screenshots, gespreksfragmenten en documenten verwerkt).
- Mediageneratie & bewerking (foto → video): eerdere functies van de Gemini-familie omvatten nu Veo / Flow-achtige foto→video-mogelijkheden; de preview suggereert diepgaandere multimediageneratie voor prototypes en mediaworkflows.
Hoe je toegang krijgt tot de Gemini 3 Pro API
Stap 1: Meld je aan voor een API-sleutel
Log in op cometapi.com. Als je nog geen gebruiker bent, registreer je dan eerst. Meld je aan bij je CometAPI-console. Haal de toegangsgegevens op van de API-sleutel van de interface. Klik op “Add Token” bij het API-token in het persoonlijke centrum, verkrijg de tokensleutel: sk-xxxxx en dien deze in.
Stap 2: Verzend verzoeken naar de Gemini 3 Pro API
Selecteer het eindpunt “gemini-3-pro” om het API-verzoek te verzenden en stel de request body in. De requestmethode en request body zijn beschikbaar in onze API-documentatie op de website. Onze website biedt ook Apifox-tests voor jouw gemak. Vervang <YOUR_API_KEY> door je daadwerkelijke CometAPI-sleutel uit je account. De base url is Gemini Generating Content en Chat
Voeg je vraag of verzoek in in het content-veld—dit is waar het model op zal reageren. Verwerk de API-respons om het gegenereerde antwoord te verkrijgen.
Stap 3: Haal resultaten op en verifieer ze
Verwerk de API-respons om het gegenereerde antwoord te verkrijgen. Na verwerking antwoordt de API met de taakstatus en de uitvoergegevens.