Gemini 3 Pro (Preview) ist das neueste multimodale Flaggschiff‑Reasoning‑Modell von Google/DeepMind in der Gemini‑3‑Familie. Es ist als ihr „bisher intelligentestes Modell“ positioniert und für tiefes Reasoning, agentische Workflows, fortgeschrittenes Coding sowie multimodales Verständnis mit langem Kontext ausgelegt (Text, Bilder, Audio, Video, Code und Tool‑Integrationen).
Key features
- Modalities: Text, Bild, Video, Audio, PDFs (und strukturierte Tool‑Ausgaben).
- Agentic/tooling: Integrierter Funktionsaufruf, Search‑as‑Tool, Codeausführung, URL‑Kontext und Unterstützung für die Orchestrierung mehrstufiger Agenten. Ein Thought‑Signature‑Mechanismus bewahrt mehrstufiges Reasoning über mehrere Aufrufe hinweg.
- Coding & „vibe coding“: Optimiert für Frontend‑Generierung, interaktive UI‑Generierung und agentisches Coding (führt laut Google relevante Bestenlisten an). Es wird als ihr bislang stärkstes „Vibe‑Coding“-Modell vermarktet.
- New developer controls:
thinking_level(low|high) zum Abwägen von Kosten/Latenz gegenüber der Reasoning‑Tiefe sowiemedia_resolutionzur Steuerung der multimodalen Wiedergabetreue pro Bild oder Videoframe. Dies hilft, Leistung, Latenz und Kosten auszubalancieren.
Benchmark performance
- Das Gemini3Pro erreichte den ersten Platz in LMARE mit einer Punktzahl von 1501, übertraf Grok-4.1-thinking mit 1484 Punkten und lag zudem vor Claude Sonnet 4.5 und Opus 4.1.
- Es erreichte außerdem den ersten Platz in der WebDevArena‑Programmierarena mit einer Punktzahl von 1487.
- In Humanity’s Last Exam (akademisches Reasoning) erzielte es 37,5% (ohne Tools); in GPQA Diamond (Science) 91,9%; und in der MathArena Apex (Mathewettbewerb) 23,4% – ein neuer Rekord.
- In multimodalen Fähigkeiten erzielte MMMU‑Pro 81%; und bei Video‑MMMU (Videokompetenz) 87,6%.
Technical details & architecture
- „Thinking level“-Parameter: Gemini 3 stellt eine
thinking_level‑Steuerung bereit, mit der Entwickler zwischen Tiefe der internen Schlussfolgerung und Latenz/Kosten abwägen können. Das Modell behandeltthinking_levelals relative Freigabe für internes mehrstufiges Reasoning, nicht als strikte Token‑Garantie. Der Standard ist bei Pro typischerweisehigh. Dies ist eine explizite neue Steuerungsmöglichkeit für Entwickler, um Mehrschrittplanung und Chain‑of‑Thought‑Tiefe zu justieren. - Structured outputs & tools: Das Modell unterstützt strukturierte JSON‑Ausgaben und kann mit integrierten Tools kombiniert werden (Google‑Search‑Grounding, URL‑Kontext, Codeausführung usw.). Einige Funktionen aus Structured‑Output+Tools sind nur in der Vorschau für
gemini-3-pro-previewverfügbar. - Multimodal and agentic integrations: Gemini 3 Pro ist ausdrücklich für agentische Workflows gebaut (Tooling + mehrere Agenten über Code/Terminals/Browser).
Limitations & known caveats
- Nicht perfekte Faktentreue — Halluzinationen sind weiterhin möglich. Trotz der von Google behaupteten Verbesserungen bei der Faktentreue sind fundierte Verifikation und menschliche Prüfung in risikoreichen Bereichen (rechtlich, medizinisch, finanziell) weiterhin notwendig.
- Langkontext‑Leistung variiert je nach Aufgabe. Die Unterstützung eines 1M‑Eingabefensters ist eine harte Fähigkeit, die empirische Effektivität kann bei extremen Längen in einigen Benchmarks jedoch sinken (beobachtete punktweise Einbrüche bei 1M in einigen Langkontext‑Tests).
- Abwägungen zwischen Kosten und Latenz. Große Kontexte und höhere
thinking_level‑Einstellungen erhöhen Rechenaufwand, Latenz und Kosten; Preisstufen gelten abhängig vom Token‑Volumen. Nutzen Siethinking_levelund Chunking‑Strategien, um Kosten zu steuern. - Sicherheits‑ und Inhaltsfilter. Google wendet weiterhin Sicherheitsrichtlinien und Moderationsschichten an; bestimmte Inhalte und Aktionen bleiben eingeschränkt oder lösen Ablehnungsmodi aus.
How Gemini 3 Pro Preview compares to other top models
High level comparison (preview → qualitative):
Gegenüber Gemini 2.5 Pro: Sprunghafte Verbesserungen beim Reasoning, in der agentischen Tool‑Nutzung und bei der multimodalen Integration; deutlich größeres Kontexthandling und besseres Verständnis langer Formen. DeepMind zeigt konsistente Zugewinne in akademischem Reasoning, Coding und multimodalen Aufgaben.
Gegenüber GPT-5.1 und Claude Sonnet 4.5 (laut Berichten): Auf der Benchmark‑Auswahl von Google/DeepMind wird Gemini 3 Pro als führend in mehreren agentischen, multimodalen und Langkontext‑Metriken präsentiert (siehe Terminal‑Bench, MMMU‑Pro, AIME). Die Vergleichsergebnisse variieren je nach Aufgabe.
Typical and high-value use cases
- Zusammenfassung großer Dokumente/Bücher & Q&A: Die Unterstützung langer Kontexte macht es attraktiv für Rechts‑, Forschungs‑ und Compliance‑Teams.
- Codeverständnis & -generierung im Repository‑Maßstab: Integration in Coding‑Toolchains und verbessertes Reasoning unterstützen große Refactorings und automatisierte Code‑Review‑Workflows.
- Multimodale Produktassistenten: Bild‑ + Text‑ + Audio‑Workflows (Kundensupport, der Screenshots, Gesprächsausschnitte und Dokumente verarbeitet).
- Medienerzeugung & -bearbeitung (Foto → Video): Frühere Funktionen der Gemini‑Familie umfassen nun Veo/Flow‑Style‑Foto‑→‑Video‑Fähigkeiten; die Vorschau deutet auf tiefere Multimedia‑Generierung für Prototypen und Medien‑Workflows hin.
How to access Gemini 3 Pro API
Step 1: Sign Up for API Key
Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Nutzer sind, registrieren Sie sich zuerst. Melden Sie sich in Ihrer CometAPI console an. Holen Sie sich den Zugriffs‑API‑Schlüssel der Schnittstelle. Klicken Sie im persönlichen Bereich bei den API‑Tokens auf “Add Token”, holen Sie sich den Token‑Key: sk-xxxxx und senden Sie ihn ab.
Step 2: Send Requests to Gemini 3 Pro API
Wählen Sie den Endpunkt “gemini-3-pro”, um die API‑Anfrage zu senden, und legen Sie den Request‑Body fest. Request‑Methode und Request‑Body entnehmen Sie der API‑Dokumentation auf unserer Website. Zu Ihrer Bequemlichkeit bietet unsere Website zudem Apifox‑Tests. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI‑Key aus Ihrem Konto. Die Base‑URL ist Gemini Generating Content und Chat
Fügen Sie Ihre Frage oder Anforderung in das content‑Feld ein — darauf wird das Modell antworten. Verarbeiten Sie die API‑Antwort, um die generierte Antwort zu erhalten.
Step 3: Retrieve and Verify Results
Verarbeiten Sie die API‑Antwort, um die generierte Antwort zu erhalten. Nach der Verarbeitung antwortet die API mit dem Task‑Status und den Ausgabedaten.