G

Nano Banana 2

Eingabe:$0.4/M
Ausgabe:$2.4/M
Überblick über die Kernfunktionen: Auflösung: Bis zu 4K (4096×4096), gleichauf mit Pro. Konsistenz von Referenzbildern: Bis zu 14 Referenzbilder (10 Objekte + 4 Charaktere), wobei Stil-/Charakterkonsistenz beibehalten wird. Extreme Seitenverhältnisse: Neue 1:4, 4:1, 1:8, 8:1-Verhältnisse hinzugefügt, geeignet für lange Bilder, Poster und Banner. Textdarstellung: Fortgeschrittene Textgenerierung, geeignet für Infografiken und Marketing-Poster-Layouts. Sucherweiterung: Integrierte Google Search + Image Search. Fundierung: Integrierter Denkprozess; komplexe Prompts werden vor der Generierung logisch hergeleitet.
G

Gemini 3.1 Flash-Lite

Eingabe:$0.2/M
Ausgabe:$1.2/M
Gemini 3.1 Flash-Lite ist ein äußerst kosteneffizientes und latenzarmes Stufe-3-Modell in Googles Gemini-3-Serie, das für hochvolumige KI-Workflows im Produktivbetrieb entwickelt wurde, bei denen Durchsatz und Geschwindigkeit wichtiger sind als maximale Reasoning-Tiefe. Es kombiniert ein großes multimodales Kontextfenster mit effizienter Inferenzleistung bei geringeren Kosten als die meisten Flaggschiffmodelle.
G

Gemini 3.1 Pro

Eingabe:$1.6/M
Ausgabe:$9.6/M
Gemini 3.1 Pro ist die nächste Generation der Gemini-Modellreihe, eine Suite hochleistungsfähiger, nativ multimodaler Reasoning-Modelle. Gemini 3 Pro ist jetzt Googles fortschrittlichstes Modell für komplexe Aufgaben und kann umfangreiche Datensätze sowie anspruchsvolle Problemstellungen aus verschiedenen Informationsquellen verstehen, darunter Text, Audio, Bilder, Videos und ganze Code-Repositories.
G

Gemini 3 Flash

Kontext:1,048,576
Eingabe:$0.4/M
Ausgabe:$2.4/M
Gemini 3 Flash ist ein leichtgewichtiges, effizientes, multimodales Großmodell von Google, das für reale Szenarien konzipiert ist, die schnelle Antworten und geringe Latenz erfordern.
G

Nano Banana Pro

Eingabe:$1.5616/M
Ausgabe:$9.3696/M
Nano Banana Pro ist ein KI-Modell für allgemeine Unterstützung in textzentrierten Workflows. Es eignet sich für anweisungsbasiertes Prompting, um Inhalte mit kontrollierbarer Struktur zu erzeugen, zu transformieren und zu analysieren. Typische Anwendungsfälle umfassen Chat-Assistenten, Dokumentenzusammenfassungen, wissensbasiertes Question Answering (QA) und Workflow-Automatisierung. Öffentlich verfügbare technische Details sind begrenzt; die Integration orientiert sich an gängigen Mustern von KI-Assistenten wie strukturierten Ausgaben, retrieval-augmentierten Prompts sowie Tool- oder Funktionsaufrufen.
G

Gemini 3 Pro

Kontext:200.0k
Eingabe:$1.6/M
Ausgabe:$9.6/M
Gemini 3 Pro ist ein universelles Modell innerhalb der Gemini-Familie, in einer Preview zur Evaluierung und zum Prototyping verfügbar. Es unterstützt das Befolgen von Anweisungen, mehrstufiges Schlussfolgern über mehrere Dialogrunden sowie Code- und Datenaufgaben, mit strukturierten Ausgaben und Tool-/Funktionsaufrufen zur Workflow-Automatisierung. Typische Anwendungsfälle umfassen Chat-Assistenten, Zusammenfassung und Umformulierung, retrieval-gestützte QA, Datenextraktion und leichtgewichtige Programmierhilfe in verschiedenen Apps und Diensten. Zu den technischen Highlights zählen API-basierte Bereitstellung, Streaming-Antworten, Sicherheitskontrollen und Integrationsbereitschaft, wobei die multimodalen Fähigkeiten von der Preview-Konfiguration abhängen.
G

Veo 3.1 Pro

Pro Sekunde:$0.25
Veo 3.1-Pro bezeichnet die leistungsstarke Zugangs-/Konfigurationsstufe der Veo 3.1 Familie von Google — eine Generation von Kurzform-Videomodellen mit Audiofunktion, die reichhaltigeres natives Audio, verbesserte Steuerungsmöglichkeiten für Erzählung und Schnitt sowie Werkzeuge zur Szenenerweiterung bieten.
G

Veo 3.1

Pro Sekunde:$0.05
Veo 3.1 ist Googles inkrementelles, aber bedeutendes Update für seine Veo-Text-und-Bild→Video-Familie, das reichhaltigeren nativen Ton, längere und besser steuerbare Videoausgaben sowie feinere Bearbeitungs- und Steuerungsmöglichkeiten auf Szenenebene hinzufügt.
G

Veo 3 Pro

G

Veo 3 Pro

Pro Sekunde:$0.25
Veo 3 pro bezeichnet das Veo 3-Videomodell-Erlebnis in Produktionsqualität (hohe Wiedergabetreue, nativer Ton und erweitertes Tooling)
G

Veo 3 Fast

G

Veo 3 Fast

Pro Sekunde:$0.05
Veo 3 Fast ist Googles geschwindigkeitsoptimierte Variante der Veo-Familie generativer Videomodelle (Veo 3 / Veo 3.1 usw.). Es ist darauf ausgelegt, kurze, hochwertige Videoclips mit nativ generiertem Audio zu produzieren und dabei Durchsatz sowie Kosten pro Sekunde zu priorisieren — wobei es etwas Spitzen-Bildtreue und/oder längere Dauer eines einzelnen Shots zugunsten deutlich schnellerer Generierung und eines niedrigeren Preises eintauscht. Was ist Veo 3 Fast — kurze Einführung
G

Veo 3

G

Veo 3

Pro Sekunde:$0.05
Veo 3 von Google DeepMind stellt die Speerspitze der Text-zu-Video-Generierung dar und markiert damit das erste Mal, dass ein großskaliges generatives KI-Modell Video in hoher Wiedergabetreue nahtlos mit begleitendem Audio – inklusive Dialogen, Soundeffekten und Umgebungsgeräuschen – synchronisiert.
G

Gemini 3.5 Pro

G

Gemini 3.5 Pro

Demnächst verfügbar
Eingabe:$60/M
Ausgabe:$240/M
coming soon
G

gemini-3.1-flash

G

gemini-3.1-flash

Demnächst verfügbar
Eingabe:$0.4/M
Ausgabe:$2.4/M
gemini-3.1-flash coming soon
G

Gemini 2.5 Pro DeepSearch

G

Gemini 2.5 Pro DeepSearch

Eingabe:$8/M
Ausgabe:$64/M
Deep-Search-Modell mit erweiterten Deep-Search- und Information-Retrieval-Fähigkeiten – eine ideale Wahl für die Integration und Analyse komplexen Wissens.
G

Gemini 2.5 Pro

G

Gemini 2.5 Pro

Kontext:1M
Eingabe:$1/M
Ausgabe:$8/M
Gemini 2.5 Pro ist ein von Google bereitgestelltes KI-Modell. Es verfügt über native multimodale Verarbeitung und bietet mit einem ultralangen Kontextfenster von bis zu 1 Million Token eine beispiellos leistungsstarke Unterstützung für komplexe Aufgaben mit langen Sequenzen. Nach Angaben von Google schneidet Gemini 2.5 Pro insbesondere bei komplexen Aufgaben sehr gut ab. Dieses Modell unterstützt eine maximale Kontextlänge von 1,048,576 Token.
G

Gemini 2.5 Flash

G

Gemini 2.5 Flash

Kontext:1M
Eingabe:$0.24/M
Ausgabe:$2/M
Gemini 2.5 Flash ist ein von Google entwickeltes KI-Modell, das darauf ausgelegt ist, Entwicklern schnelle und kosteneffiziente Lösungen bereitzustellen, insbesondere für Anwendungen, die erweiterte Inferenzfähigkeiten erfordern. Laut der Vorschauankündigung zu Gemini 2.5 Flash wurde das Modell am 17. April 2025 als Vorschau veröffentlicht, unterstützt multimodale Eingaben und verfügt über ein Kontextfenster von 1 Million Token. Dieses Modell unterstützt eine maximale Kontextlänge von 65,536 Token.
G

Gemini 2.5 Flash Lite

G

Gemini 2.5 Flash Lite

Kontext:1M
Eingabe:$0.08/M
Ausgabe:$0.32/M
Ein optimiertes Gemini 2.5 Flash-Modell für hohe Kosteneffizienz und hohen Durchsatz. Das kleinste und kosteneffizienteste Modell, entwickelt für den Einsatz im großen Maßstab.
G

Nano Banana

Pro Anfrage:$0.0312
Gemini 2.5 Flash Image (auch bekannt als nano-banana) ist Googles fortschrittlichstes Modell zur Bildgenerierung und -bearbeitung. Dieses Update ermöglicht es Ihnen, mehrere Bilder zu einem einzigen Bild zu verschmelzen, die Konsistenz von Figuren beizubehalten, um reichhaltige Geschichten zu erzählen, mithilfe natürlicher Sprache gezielte Transformationen vorzunehmen und das Weltwissen von Gemini zu nutzen, um Bilder zu generieren und zu bearbeiten.
G

Gemini 2.5 Flash DeepSearch

G

Gemini 2.5 Flash DeepSearch

Eingabe:$4.8/M
Ausgabe:$38.4/M
Deep-Search-Modell mit erweiterten Deep-Search- und Information-Retrieval-Fähigkeiten, eine ideale Wahl für komplexe Wissensintegration und -analyse.