O

GPT-5.2 Pro

Kontext:400,000
Eingabe:$12.00/M
Ausgabe:$96.00/M
gpt-5.2-pro ist das leistungsfähigste, für den Produktionseinsatz ausgerichtete Mitglied der GPT-5.2-Familie von OpenAI und wird über die Responses API bereitgestellt für Workloads, die maximale Genauigkeit, mehrschrittiges Schlussfolgern, umfangreiche Tool-Nutzung und die größten Kontext-/Durchsatzbudgets erfordern, die OpenAI anbietet.
O

GPT-5.2 Chat

Kontext:128,000
Eingabe:$1.40/M
Ausgabe:$11.20/M
gpt-5.2-chat-latest ist der für Chat optimierte Snapshot der GPT-5.2-Familie von OpenAI (in ChatGPT als GPT-5.2 Instant bezeichnet). Es ist das Modell für interaktive/Chat-Anwendungsfälle, die eine Mischung aus Geschwindigkeit, Verarbeitung langer Kontexte, multimodalen Eingaben und zuverlässigem Gesprächsverhalten benötigen.
O

GPT-5.2

Kontext:400,000
Eingabe:$1.40/M
Ausgabe:$11.20/M
GPT-5.2 ist eine Modellsuite mit mehreren Varianten (Instant, Thinking, Pro), die für ein besseres Verständnis langer Kontexte, stärkere Fähigkeiten beim Programmieren und im Einsatz von Tools sowie eine wesentlich höhere Leistung bei professionellen Benchmarks für Wissensarbeit entwickelt wurde.
O

GPT-5.1 Chat

Kontext:400.0k
Eingabe:$1.00/M
Ausgabe:$8.00/M
GPT-5.1 Chat ist ein an Anweisungen feinabgestimmtes konversationelles Sprachmodell für allgemeine Chat-, Reasoning- und Schreibaufgaben. Es unterstützt mehrstufige Dialoge, Zusammenfassungen, das Erstellen von Entwürfen, Fragebeantwortung auf Grundlage von Wissensbasen sowie leichtgewichtige Code-Unterstützung für In-App-Assistenten, Support-Automatisierung und Workflow-Copilots. Zu den technischen Highlights gehören chat-optimiertes Alignment, steuerbare und strukturierte Ausgaben sowie Integrationspfade für Toolaufrufe und Retrieval-Workflows, sofern verfügbar.
O

GPT-5.1

Eingabe:$1.00/M
Ausgabe:$8.00/M
GPT-5.1 ist ein universell einsetzbares, instruktionsoptimiertes Sprachmodell mit Fokus auf Textgenerierung und logischem Schlussfolgern über Produkt-Workflows hinweg. Es unterstützt Dialoge über mehrere Runden, strukturierte Ausgabeformate sowie codeorientierte Aufgaben wie die Erstellung von Entwürfen, Refactoring und Erklärungen. Typische Anwendungsfälle umfassen Chat-Assistenten, retrieval-gestützte Fragebeantwortung, Datentransformation und agentenartige Automatisierung mit Tools oder APIs, sofern unterstützt. Zu den technischen Highlights zählen eine textzentrierte Modalität, das Befolgen von Anweisungen, Ausgaben im JSON-Stil und Kompatibilität mit Funktionsaufrufen in gängigen Orchestrierungs-Frameworks.
O

GPT-5 nano

Kontext:400K
Eingabe:$0.04/M
Ausgabe:$0.32/M
GPT-5 Nano ist ein von OpenAI bereitgestelltes KI-Modell.
O

GPT-5 mini

Kontext:400K
Eingabe:$0.20/M
Ausgabe:$1.60/M
GPT-5 mini ist das kosten- und latenzoptimierte Mitglied der GPT-5-Familie von OpenAI, das darauf ausgelegt ist, einen Großteil der multimodalen Stärken von GPT-5 sowie seiner Stärken bei der Befolgung von Anweisungen zu deutlich geringeren Kosten für den großskaligen Produktionseinsatz bereitzustellen. Es richtet sich an Umgebungen, in denen Durchsatz, vorhersehbare Kosten pro Token und schnelle Antworten die primären Rahmenbedingungen sind, während es gleichzeitig starke allgemeine Fähigkeiten bietet.
O

GPT 5 Chat

Kontext:400K
Eingabe:$1.00/M
Ausgabe:$8.00/M
GPT-5 Chat (latest) ist ein von OpenAI bereitgestelltes KI-Modell.
O

GPT-5

Kontext:400K
Eingabe:$1.00/M
Ausgabe:$8.00/M
GPT-5 ist OpenAIs bisher leistungsstärkstes Code-Modell. Es zeigt erhebliche Verbesserungen bei der Generierung komplexer Frontends und beim Debuggen großer Codebasen. Es kann Ideen mit intuitiven und ästhetisch ansprechenden Ergebnissen in die Realität umsetzen und damit schöne, responsive Websites, Anwendungen und Spiele erstellen – mit nur einem Prompt. Frühe Tester haben zudem seine Designentscheidungen hervorgehoben, mit einem tieferen Verständnis für Elemente wie Abstände, Typografie und Weißraum.
O

GPT-4.1 nano

Kontext:1.0M
Eingabe:$0.08/M
Ausgabe:$0.32/M
GPT-4.1 nano ist ein von OpenAI bereitgestelltes KI-Modell. gpt-4.1-nano: Verfügt über ein größeres Kontextfenster—unterstützt bis zu 1 Million Kontext-Token und kann diesen Kontext dank eines verbesserten Verständnisses langer Kontexte besser nutzen. Verfügt über einen aktualisierten Wissensstand bis Juni 2024. Dieses Modell unterstützt eine maximale Kontextlänge von 1,047,576 Token.
O

GPT-4.1

Kontext:1.0M
Eingabe:$1.60/M
Ausgabe:$6.40/M
GPT-4.1 ist ein von OpenAI bereitgestelltes KI-Modell. gpt-4.1-nano: Verfügt über ein größeres Kontextfenster—unterstützt bis zu 1 Million Kontext-Token und kann diesen Kontext dank eines verbesserten Verständnisses langer Kontexte besser nutzen. Hat einen aktualisierten Wissensstand bis Juni 2024. Dieses Modell unterstützt eine maximale Kontextlänge von 1,047,576 Token.
O

GPT-4o mini

Eingabe:$0.12/M
Ausgabe:$0.48/M
GPT-4o mini ist ein von OpenAI bereitgestelltes KI-Modell.
O

Whisper-1

Eingabe:$24.00/M
Ausgabe:$24.00/M
Sprach-zu-Text, Erstellung von Übersetzungen
O

TTS

Eingabe:$12.00/M
Ausgabe:$12.00/M
OpenAI Text-zu-Sprache
O

Sora 2 Pro

Pro Sekunde:$0.24
Sora 2 Pro ist unser fortschrittlichstes und leistungsstärkstes Modell zur Mediengenerierung, das Videos mit synchronisiertem Audio generieren kann. Es kann aus natürlicher Sprache oder Bildern detaillierte, dynamische Videoclips generieren.
O

Sora 2

Pro Sekunde:$0.08
Äußerst leistungsstarkes Modell zur Videogenerierung, mit Soundeffekten, unterstützt das Chat-Format.
O

GPT Image 1 mini

Eingabe:$2.00/M
Ausgabe:$6.40/M
Kostenoptimierte Version von GPT Image 1. Es handelt sich um ein natives multimodales Sprachmodell, das sowohl Text- als auch Bildeingaben akzeptiert und Bildausgaben erzeugt.
O

GPT 4.1 mini

Kontext:1.0M
Eingabe:$0.32/M
Ausgabe:$1.28/M
GPT-4.1 mini ist ein von OpenAI bereitgestelltes KI-Modell. gpt-4.1-mini: Ein bedeutender Sprung in der Leistung kleiner Modelle, der in vielen Benchmarks sogar GPT-4o übertrifft. Es erreicht oder übertrifft GPT-4o bei der Intelligenzbewertung, während es die Latenz nahezu halbiert und die Kosten um 83 % senkt. Dieses Modell unterstützt eine maximale Kontextlänge von 1,047,576 Token.
O

o4-mini-deep-research

Kontext:200K
Eingabe:$1.60/M
Ausgabe:$6.40/M
O4-Mini-Deep-Research ist OpenAIs neuestes agentisches Reasoning-Modell und kombiniert das leichtgewichtige o4‑mini‑Backbone mit dem fortgeschrittenen Deep Research Framework. Entwickelt, um eine schnelle, kosteneffiziente, tiefgehende Informationssynthese bereitzustellen, ermöglicht es Entwicklern und Forschern, automatisierte Websuchen, Datenanalysen und Chain-of-Thought-Reasoning innerhalb eines einzigen API-Aufrufs durchzuführen.
O

o4-mini

Eingabe:$0.88/M
Ausgabe:$3.52/M
O4-mini ist ein von OpenAI bereitgestelltes KI-Modell.
O

O3 Pro

Kontext:200K
Eingabe:$16.00/M
Ausgabe:$64.00/M
OpenAI o3‑pro ist eine “pro”-Variante des o3‑Reasoning‑Modells, die darauf ausgelegt ist, länger nachzudenken und die zuverlässigsten Antworten zu liefern, indem sie privates Chain‑of‑Thought‑Reinforcement‑Learning einsetzt und neue State‑of‑the‑Art‑Benchmarks in Bereichen wie Wissenschaft, Programmierung und Wirtschaft setzt—während sie autonom Tools wie Websuche, Dateianalyse, Python‑Ausführung und visuelles Schlussfolgern über die API integriert.
O

o3-mini

Eingabe:$0.88/M
Ausgabe:$3.52/M
O3-mini ist ein von OpenAI bereitgestelltes KI-Modell.
O

o3-deep-research

Eingabe:$8.00/M
Ausgabe:$32.00/M
Ein vernetzter Agent für tiefgehende Recherche auf Basis des O3-Modells, der mehrstufige Inferenz und Berichte zur Zitationsanalyse unterstützt.
O

o3

Eingabe:$1.60/M
Ausgabe:$6.40/M
O3 ist ein von OpenAI bereitgestelltes KI-Modell.
O

GPT-4o mini Audio

Eingabe:$0.12/M
Ausgabe:$0.48/M
GPT-4o mini Audio ist ein multimodales Modell für Sprach- und Textinteraktionen. Es führt Spracherkennung, Übersetzung und Text-zu-Sprache durch, befolgt Anweisungen und kann Tools für strukturierte Aktionen aufrufen, wobei Antworten gestreamt werden. Typische Anwendungsfälle umfassen Echtzeit-Sprachassistenten, Live-Untertitelung und -Übersetzung, Anrufzusammenfassungen und sprachgesteuerte Anwendungen. Zu den technischen Highlights gehören Audioeingabe und -ausgabe, Streaming-Antworten, Funktionsaufrufe und strukturierte JSON-Ausgabe.
O

codex-mini-latest

Eingabe:$1.20/M
Ausgabe:$4.80/M
Codex Mini ist ein von OpenAI bereitgestelltes KI-Modell. Es ist OpenAIs neueste Errungenschaft in der Codegenerierung, ein leichtgewichtiges Modell, das speziell für die Codex-Befehlszeilenschnittstelle (CLI) optimiert wurde. Als feinabgestimmte Version von o4-mini übernimmt dieses Modell die hohe Effizienz und Antwortgeschwindigkeit des Basismodells und wurde zusätzlich speziell für Codeverständnis und -generierung optimiert.
O

GPT-4o mini TTS

Eingabe:$9.60/M
Ausgabe:$38.40/M
GPT-4o mini TTS ist ein neuronales Text-to-Speech-Modell, das für natürliche Sprachgenerierung mit geringer Latenz in benutzerorientierten Anwendungen entwickelt wurde. Es wandelt Text in natürlich klingende Sprache um, mit auswählbaren Stimmen, Ausgabe in mehreren Formaten und Streaming-Synthese für reaktionsschnelle Nutzererlebnisse. Typische Einsatzszenarien sind Sprachassistenten, IVR- und Contact-Flows, Vorlesen von Produktinhalten und Medienvertonung. Zu den technischen Highlights zählen API-basiertes Streaming und der Export in gängige Audioformate wie MP3 und WAV.
O

GPT-4o Realtime

Eingabe:$60.00/M
Ausgabe:$240.00/M
Die Realtime API ermöglicht Entwicklern, latenzarme, multimodale Anwendungen zu entwickeln, einschließlich Sprach-zu-Sprach-Funktionalität. Text und Audio, die von der Realtime API verarbeitet werden, werden separat abgerechnet. Dieses Modell unterstützt eine maximale Kontextlänge von 128,000 Token.
O

GPT-4o Search

Eingabe:$60.00/M
Ausgabe:$60.00/M
GPT-4o Search ist ein auf GPT-4o basierendes multimodales Modell, das für suchgestütztes Schlussfolgern und quellenfundierte, aktuelle Antworten konfiguriert ist. Es befolgt Anweisungen und nutzt Web-Suchwerkzeuge, um externe Informationen abzurufen, zu bewerten und zu synthetisieren, mit Quellenkontext, sofern verfügbar. Typische Anwendungsfälle sind Rechercheunterstützung, Faktenprüfung, Nachrichten- und Trendbeobachtung sowie die Beantwortung zeitkritischer Anfragen. Zu den technischen Highlights zählen Tool-/Funktionsaufrufe für das Durchsuchen und Abrufen, die Verarbeitung langer Kontexte sowie strukturierte Ausgaben, die sich für Zitate und Links eignen.
O

ChatGPT-4o

Eingabe:$4.00/M
Ausgabe:$12.00/M
Basierend auf der neuesten Iteration von GPT-4o, einem multimodalen Large Language Model (LLM), das Ein- und Ausgaben für Text, Bild, Audio und Video unterstützt.
O

tts-1-hd-1106

Eingabe:$24.00/M
Ausgabe:$24.00/M
O

tts-1-hd

Eingabe:$24.00/M
Ausgabe:$24.00/M
O

tts-1-1106

Eingabe:$12.00/M
Ausgabe:$12.00/M
O

tts-1

Eingabe:$12.00/M
Ausgabe:$12.00/M
O

text-embedding-ada-002

Eingabe:$0.08/M
Ausgabe:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

Eingabe:$0.02/M
Ausgabe:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

Eingabe:$0.10/M
Ausgabe:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

Pro Anfrage:$0.00
O

omni-moderation-2024-09-26

Pro Anfrage:$0.00
O

o1-pro-all

Eingabe:$120.00/M
Ausgabe:$480.00/M
O

o1-pro-2025-03-19

Eingabe:$120.00/M
Ausgabe:$480.00/M
O

o1-pro

Eingabe:$120.00/M
Ausgabe:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

Pro Anfrage:$0.16
O

o1-preview-2024-09-12

Eingabe:$12.00/M
Ausgabe:$48.00/M
O

o1-preview

Eingabe:$12.00/M
Ausgabe:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

Pro Anfrage:$0.08
O

o1-mini-2024-09-12

Eingabe:$0.88/M
Ausgabe:$3.52/M
O

o1-mini

Eingabe:$0.88/M
Ausgabe:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

Pro Anfrage:$0.16
O

o1-2024-12-17

Eingabe:$12.00/M
Ausgabe:$48.00/M
O

o1

Eingabe:$12.00/M
Ausgabe:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

Eingabe:$0.48/M
Ausgabe:$0.96/M
Eine kostengünstige Version des Echtzeit-GPT—die in Echtzeit über WebRTC-, WebSocket- oder SIP-Verbindungen auf Audio- und Texteingaben reagieren kann.
C

gpt-oss-20b

Eingabe:$0.08/M
Ausgabe:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

Eingabe:$0.16/M
Ausgabe:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

Eingabe:$8.00/M
Ausgabe:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

Eingabe:$2.00/M
Ausgabe:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

Eingabe:$2.00/M
Ausgabe:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

Eingabe:$8.00/M
Ausgabe:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

Pro Anfrage:$0.04
O

gpt-4-turbo-preview

Eingabe:$8.00/M
Ausgabe:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

Eingabe:$8.00/M
Ausgabe:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

Eingabe:$8.00/M
Ausgabe:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

Pro Anfrage:$0.04
O

gpt-4-gizmo-*

Eingabe:$24.00/M
Ausgabe:$48.00/M
O

gpt-4-gizmo

Eingabe:$24.00/M
Ausgabe:$48.00/M
O

gpt-4-dalle

Pro Anfrage:$0.04
O

gpt-4-all

Eingabe:$24.00/M
Ausgabe:$48.00/M
A

gpt-4-32k

Eingabe:$48.00/M
Ausgabe:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

Eingabe:$8.00/M
Ausgabe:$16.00/M
O

gpt-4-0613

Eingabe:$24.00/M
Ausgabe:$48.00/M
O

gpt-4-0314

Eingabe:$24.00/M
Ausgabe:$48.00/M
O

gpt-4-0125-preview

Eingabe:$8.00/M
Ausgabe:$16.00/M
O

gpt-4

Eingabe:$24.00/M
Ausgabe:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

Eingabe:$0.40/M
Ausgabe:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

Eingabe:$0.40/M
Ausgabe:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

Pro Anfrage:$0.02
New version of DALL-E for image generation.
O

dall-e-2

Eingabe:$8.00/M
Ausgabe:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

Kontext:200K
Eingabe:$2.40/M
Ausgabe:$12.00/M
Claude Sonnet 4.5 macht einen deutlichen Sprung bei den Fähigkeiten für praktische Computeraufgaben. Auf OSWorld, einer Benchmark-Plattform zum Testen von KI-Modellen an realen Computeraufgaben, sprang Sonnet 4.5 mit 61.4% an die Spitze, während vor nur vier Monaten noch Sonnet 4 mit 42.2% führte. Unsere Claude for Chrome-Erweiterung setzt diese verbesserten Funktionen in die Praxis um.
A

Claude Opus 4.5

Kontext:200K
Eingabe:$4.00/M
Ausgabe:$20.00/M
Claude Opus 4.5 ist ein instruktionsoptimiertes großes Sprachmodell von Anthropic, das für komplexes Schlussfolgern, Programmierung und Multi-Turn-Dialoge entwickelt wurde. Es unterstützt erweiterte Kontextverarbeitung, Tool-/Funktionsaufrufe, strukturierte Ausgaben sowie die Integration mit retrieval-gestützten Workflows. Typische Anwendungsfälle umfassen analytische Assistenten, Codegenerierung und -Überprüfung, Wissensdatenbank-QA und Inhaltserstellung mit richtlinienkonformen Antworten. Zu den technischen Highlights gehören die Befolgung von Anweisungen, RAG-freundliches Verhalten und in Claude-Bereitstellungen verfügbare Sicherheitskontrollen.
C

Claude Opus 4.1

Kontext:200K
Eingabe:$12.00/M
Ausgabe:$60.00/M
Claude Opus 4.1 ist eine aktualisierte Version von Anthropics Flaggschiffmodell und bietet eine verbesserte Leistung bei Programmierung, Inferenz und Agentenaufgaben. Es erreicht 74.5% auf SWE-bench Verified und zeigt deutliche Verbesserungen bei Code-Refactoring über mehrere Dateien, bei der Debugging-Genauigkeit und bei detailorientierter Inferenz. Dieses Modell unterstützt erweitertes Reasoning mit bis zu 64K Token und ist für Aufgaben in den Bereichen Forschung, Datenanalyse und werkzeuggestützte Inferenz optimiert.
C

Claude 4 Sonnet

Kontext:200K
Eingabe:$2.40/M
Ausgabe:$12.00/M
Schnellstes, kosteneffizientestes Modell, 200K Kontextfenster.
C

Claude Opus 4

Kontext:200K
Eingabe:$12.00/M
Ausgabe:$60.00/M
Das optimale Gleichgewicht zwischen Intelligenz, Kosten und Geschwindigkeit. 200K-Kontextfenster.
C

Claude 3.7 Sonnet

Eingabe:$2.40/M
Ausgabe:$12.00/M
Claudes großer Schritt gegen R1: Das leistungsstarke 3.7 ist offiziell online. Dieses Modell unterstützt eine maximale Kontextlänge von 200,000 Token. Mit Thinking-Unterstützung.
C

Claude Haiku 4.5

Kontext:200K
Eingabe:$0.80/M
Ausgabe:$4.00/M
Schnellstes und kosteneffizientestes Modell.
C

Claude 3.5 Haiku

Eingabe:$0.80/M
Ausgabe:$4.00/M
Diese Aliasse verweisen automatisch auf den neuesten Snapshot eines gegebenen Modells. Für Experimente sind sie nützlich; in produktiven Anwendungen empfehlen wir jedoch, spezifische Modellversionen (z. B. claude-3-5-sonnet-20241022) zu verwenden, um ein konsistentes Verhalten sicherzustellen. Wenn wir neue Modell-Snapshots veröffentlichen, migrieren wir den Alias -latest so, dass er auf die neue Version verweist (typischerweise innerhalb einer Woche nach der Veröffentlichung der neuen Version). Der Alias -latest hat dieselben Rate Limits und dieselben Preise wie die zugrunde liegende Modellversion, auf die er sich bezieht. Dieses Modell unterstützt eine maximale Kontextlänge von 200,000 Token.
C

Claude 3 Haiku

Eingabe:$0.20/M
Ausgabe:$1.00/M
Claude Haiku 3 ist ein von Anthropic bereitgestelltes KI-Modell.
G

Veo 3.1 Pro

Pro Anfrage:$2.00
Veo 3.1-Pro bezeichnet die leistungsstarke Zugangs-/Konfigurationsstufe der Veo 3.1 Familie von Google — eine Generation von Kurzform-Videomodellen mit Audiofunktion, die reichhaltigeres natives Audio, verbesserte Steuerungsmöglichkeiten für Erzählung und Schnitt sowie Werkzeuge zur Szenenerweiterung bieten.
G

Veo 3.1

Pro Anfrage:$0.40
Veo 3.1 ist Googles inkrementelles, aber bedeutendes Update für seine Veo-Text-und-Bild→Video-Familie, das reichhaltigeren nativen Ton, längere und besser steuerbare Videoausgaben sowie feinere Bearbeitungs- und Steuerungsmöglichkeiten auf Szenenebene hinzufügt.
G

Veo 3 Pro

Pro Anfrage:$2.00
Veo 3 pro bezeichnet das Veo 3-Videomodell-Erlebnis in Produktionsqualität (hohe Wiedergabetreue, nativer Ton und erweitertes Tooling)
G

Veo 3 Fast

Pro Anfrage:$0.40
Veo 3 Fast ist Googles geschwindigkeitsoptimierte Variante der Veo-Familie generativer Videomodelle (Veo 3 / Veo 3.1 usw.). Es ist darauf ausgelegt, kurze, hochwertige Videoclips mit nativ generiertem Audio zu produzieren und dabei Durchsatz sowie Kosten pro Sekunde zu priorisieren — wobei es etwas Spitzen-Bildtreue und/oder längere Dauer eines einzelnen Shots zugunsten deutlich schnellerer Generierung und eines niedrigeren Preises eintauscht. Was ist Veo 3 Fast — kurze Einführung
G

Veo 3

Pro Anfrage:$0.40
Veo 3 von Google DeepMind stellt die Speerspitze der Text-zu-Video-Generierung dar und markiert damit das erste Mal, dass ein großskaliges generatives KI-Modell Video in hoher Wiedergabetreue nahtlos mit begleitendem Audio – inklusive Dialogen, Soundeffekten und Umgebungsgeräuschen – synchronisiert.
G

Gemini 2.5 Pro

Kontext:1M
Eingabe:$1.00/M
Ausgabe:$8.00/M
Gemini 2.5 Pro ist ein von Google bereitgestelltes KI-Modell. Es verfügt über native multimodale Verarbeitung und bietet mit einem ultralangen Kontextfenster von bis zu 1 Million Token eine beispiellos leistungsstarke Unterstützung für komplexe Aufgaben mit langen Sequenzen. Nach Angaben von Google schneidet Gemini 2.5 Pro insbesondere bei komplexen Aufgaben sehr gut ab. Dieses Modell unterstützt eine maximale Kontextlänge von 1,048,576 Token.
G

Gemini 2.5 Flash

Kontext:1M
Eingabe:$0.24/M
Ausgabe:$2.00/M
Gemini 2.5 Flash ist ein von Google entwickeltes KI-Modell, das darauf ausgelegt ist, Entwicklern schnelle und kosteneffiziente Lösungen bereitzustellen, insbesondere für Anwendungen, die erweiterte Inferenzfähigkeiten erfordern. Laut der Vorschauankündigung zu Gemini 2.5 Flash wurde das Modell am 17. April 2025 als Vorschau veröffentlicht, unterstützt multimodale Eingaben und verfügt über ein Kontextfenster von 1 Million Token. Dieses Modell unterstützt eine maximale Kontextlänge von 65,536 Token.
G

Nano Banana

Pro Anfrage:$0.03
Gemini 2.5 Flash Image (auch bekannt als nano-banana) ist Googles fortschrittlichstes Modell zur Bildgenerierung und -bearbeitung. Dieses Update ermöglicht es Ihnen, mehrere Bilder zu einem einzigen Bild zu verschmelzen, die Konsistenz von Figuren beizubehalten, um reichhaltige Geschichten zu erzählen, mithilfe natürlicher Sprache gezielte Transformationen vorzunehmen und das Weltwissen von Gemini zu nutzen, um Bilder zu generieren und zu bearbeiten.
G

Gemini 2.5 Flash Lite

Kontext:1M
Eingabe:$0.08/M
Ausgabe:$0.32/M
Ein optimiertes Gemini 2.5 Flash-Modell für hohe Kosteneffizienz und hohen Durchsatz. Das kleinste und kosteneffizienteste Modell, entwickelt für den Einsatz im großen Maßstab.
G

Gemini 2.5 Pro DeepSearch

Eingabe:$8.00/M
Ausgabe:$64.00/M
Deep-Search-Modell mit erweiterten Deep-Search- und Information-Retrieval-Fähigkeiten – eine ideale Wahl für die Integration und Analyse komplexen Wissens.
G

Gemini 2.5 Pro (All)

Eingabe:$2.00/M
Ausgabe:$16.00/M
Gemini 2.5 Pro (All) ist ein multimodales Modell für Text- und Medienverständnis, entwickelt für Allzweck-Assistenten und kontextgestütztes Schlussfolgern. Es beherrscht das Befolgen von Anweisungen, analytisches Schreiben, das Verstehen von Code sowie Bild- und Audioverständnis, mit zuverlässigem Tool-/Funktionsaufruf und RAG-freundlichem Verhalten. Typische Anwendungsfälle umfassen Enterprise-Chat-Agenten, Dokumenten- und UI-Analyse, visuelle Fragebeantwortung und Workflow-Automatisierung. Zu den technischen Highlights zählen einheitliche Bild-/Text-/Audioeingaben, Unterstützung für lange Kontexte, strukturierte JSON-Ausgabe, Streaming-Antworten und die Steuerung von Systemanweisungen.
G

Gemini 2.5 Flash DeepSearch

Eingabe:$4.80/M
Ausgabe:$38.40/M
Deep-Search-Modell mit erweiterten Deep-Search- und Information-Retrieval-Fähigkeiten, eine ideale Wahl für komplexe Wissensintegration und -analyse.
G

Gemini 2.5 Flash (All)

Eingabe:$0.24/M
Ausgabe:$2.00/M
Gemini 2.5 Flash ist ein von Google entwickeltes KI-Modell, das entwickelt wurde, um schnelle und kosteneffiziente Lösungen für Entwickler bereitzustellen, insbesondere für Anwendungen, die erweiterte Inferenzfunktionen erfordern. Laut der Vorschauankündigung zu Gemini 2.5 Flash wurde das Modell am 17. April 2025 in der Vorschau veröffentlicht, unterstützt multimodale Eingaben und verfügt über ein Kontextfenster von 1 Million Token. Dieses Modell unterstützt eine maximale Kontextlänge von 65.536 Token.
G

Gemini 2.0 Flash Lite

Eingabe:$0.08/M
Ausgabe:$0.32/M
Gemini 2.0 Flash Lite ist ein kompaktes, instruktionsabgestimmtes multimodales Modell, das für Inferenz mit niedriger Latenz und hohem Durchsatz optimiert ist. Es bewältigt Text- und Bildverständnis, Zusammenfassung, Klassifikation und leichtgewichtiges Schlussfolgern, mit Tool-/Funktionsaufrufen und Steuerung strukturierter Ausgaben. Typische Einsatzszenarien umfassen Konversationsagenten, schnelle Erstellung von Entwürfen, Metadatenextraktion aus Dokumenten oder Screenshots sowie retrieval-augmentierte Workflows. Zu den technischen Highlights gehören Text-Bild-Eingaben, Streaming-Generierung, Tool-/Funktionsaufrufe und Bereitstellungsoptionen, die für latenzsensitive Dienste geeignet sind.
G

Gemini 2.0 Flash

Eingabe:$0.08/M
Ausgabe:$0.32/M
Gemini 2.0 Flash ist ein von Google-Vertex bereitgestelltes KI-Modell.
G

Nano Banana Pro

Pro Anfrage:$0.19
Nano Banana Pro ist ein KI-Modell für allgemeine Unterstützung in textzentrierten Workflows. Es eignet sich für anweisungsbasiertes Prompting, um Inhalte mit kontrollierbarer Struktur zu erzeugen, zu transformieren und zu analysieren. Typische Anwendungsfälle umfassen Chat-Assistenten, Dokumentenzusammenfassungen, wissensbasiertes Question Answering (QA) und Workflow-Automatisierung. Öffentlich verfügbare technische Details sind begrenzt; die Integration orientiert sich an gängigen Mustern von KI-Assistenten wie strukturierten Ausgaben, retrieval-augmentierten Prompts sowie Tool- oder Funktionsaufrufen.
G

Gemini 3 Pro Preview

Kontext:200.0k
Eingabe:$1.60/M
Ausgabe:$9.60/M
Gemini 3 Pro Preview ist ein Allzweckmodell aus der Gemini-Familie, das als Preview zur Evaluierung und zum Prototyping verfügbar ist. Es unterstützt das Befolgen von Anweisungen, mehrschrittiges Schlussfolgern über mehrere Runden sowie Code- und Datenaufgaben, mit strukturierten Ausgaben und Tool-/Funktionsaufrufen zur Workflow-Automatisierung. Typische Anwendungsfälle sind Chat-Assistenten, Zusammenfassung und Umformulierung, Retrieval-gestützte QA, Datenextraktion und leichtgewichtige Programmierhilfe über Apps und Dienste hinweg. Zu den technischen Highlights gehören API-basierte Bereitstellung, Streaming-Antworten, Sicherheitskontrollen und Integrationsbereitschaft, mit multimodalen Fähigkeiten je nach Preview-Konfiguration.
X

Grok Code Fast 1

Kontext:256K
Eingabe:$0.16/M
Ausgabe:$1.20/M
Grok Code Fast 1 ist ein von xAI vorgestelltes KI-Programmiermodell, das für schnelle und effiziente grundlegende Programmieraufgaben ausgelegt ist. Das Modell kann 92 Token pro Sekunde verarbeiten, verfügt über ein Kontextfenster von 256k und eignet sich für schnelles Prototyping, das Debuggen von Code sowie das Generieren einfacher visueller Elemente.
X

Grok 4 Fast

Kontext:2M
Eingabe:$0.16/M
Ausgabe:$0.40/M
Grok 4 Fast ist ein neues von xAI veröffentlichtes KI-Modell, das Inferenz- und Nicht-Inferenz-Fähigkeiten in einer einheitlichen Architektur vereint. Dieses Modell verfügt über ein Kontextfenster von 2 Millionen Token und ist für Anwendungen mit hohem Durchsatz wie Suche und Programmierung ausgelegt. Das Modell bietet zwei Versionen: Grok-4-Fast-Reasoning und Grok-4-Fast-Non-Reasoning, die für unterschiedliche Aufgaben optimiert sind.
X

Grok 4.1 Fast

Kontext:2M
Eingabe:$0.16/M
Ausgabe:$0.40/M
Grok 4.1 Fast ist das auf Produktion ausgerichtete Großmodell von xAI, optimiert für agentisches Tool-Calling, Workflows mit langem Kontext und Inferenz mit geringer Latenz. Es ist eine multimodale Modellfamilie mit zwei Varianten, die dafür konzipiert ist, autonome Agenten auszuführen, die suchen, Code ausführen, Dienste aufrufen und über extrem große Kontexte (bis zu 2 Millionen Token) hinweg schlussfolgern.
X

Grok 4

Kontext:256K
Eingabe:$2.40/M
Ausgabe:$12.00/M
Grok 4 ist ein von XAI bereitgestelltes KI-Modell. Es unterstützt derzeit die Textmodalität; Vision, Bildgenerierung und weitere Funktionen folgen in Kürze. Es verfügt über außerordentlich leistungsstarke technische Parameter und Ökosystemfähigkeiten: Kontextfenster: Unterstützt die Kontextverarbeitung von bis zu 256,000 Tokens und liegt damit vor den gängigen Modellen.
X

Grok 3 Reasoner

Eingabe:$2.40/M
Ausgabe:$12.00/M
Grok-3 Reasoning-Modell, mit Chain-of-Thought, Elon Musks Konkurrent zu R1. Dieses Modell unterstützt eine maximale Kontextlänge von 100,000 Token.
X

Grok 3 Mini

Eingabe:$0.24/M
Ausgabe:$0.40/M
Ein leichtgewichtiges Modell, das nachdenkt, bevor es antwortet. Schnell, intelligent und ideal für logikbasierte Aufgaben, die keine tiefen Fachkenntnisse erfordern. Unbearbeitete Gedankengänge sind zugänglich. Dieses Modell unterstützt eine maximale Kontextlänge von 100,000 Token.
X

Grok 3 DeepSearch

Eingabe:$2.40/M
Ausgabe:$12.00/M
Grok-3, ein tief vernetztes Suchmodell. Dieses Modell unterstützt eine maximale Kontextlänge von 100,000 Token.
X

Grok 3 DeeperSearch

Eingabe:$2.40/M
Ausgabe:$12.00/M
Grok-3, ein tief vernetztes Suchmodell, dem grok-3-deepsearch überlegen ist. Dieses Modell unterstützt eine maximale Kontextlänge von 100,000 Token.
X

Grok 3

Eingabe:$2.40/M
Ausgabe:$12.00/M
Grok-3 ist das neueste KI-Chatbot-Modell, das von Elon Musks Unternehmen xAI am 17. Februar 2025 veröffentlicht wurde. Sein Trainingscluster hat das Niveau von 200,000 Karten erreicht, schneidet in Aufgaben wie Mathematik, Naturwissenschaften und Programmierung hervorragend ab und wird von Musk als "die intelligenteste KI auf der Erde" gefeiert. Dieses Modell unterstützt eine maximale Kontextlänge von 100,000 Token.
X

Grok 2

Eingabe:$0.80/M
Ausgabe:$0.80/M
Grok 2 ist ein von XAI bereitgestelltes KI-Modell.
D

DeepSeek-V3.2

Kontext:128K
Eingabe:$0.22/M
Ausgabe:$0.35/M
DeepSeek v3.2 ist die neueste Produktionsversion innerhalb der DeepSeek V3-Familie: eine große, auf Schlussfolgern ausgerichtete Open-Weight-Sprachmodellfamilie, die für das Verständnis langer Kontexte, robusten Agenten-/Tool-Einsatz, fortgeschrittenes Schlussfolgern, Programmierung und Mathematik entwickelt wurde.
D

DeepSeek-V3

Eingabe:$0.22/M
Ausgabe:$0.88/M
Das beliebteste und kosteneffizienteste DeepSeek-V3-Modell. 671B Vollausbau-Version. Dieses Modell unterstützt eine maximale Kontextlänge von 64,000 Token.
D

DeepSeek-V3.1

Eingabe:$0.44/M
Ausgabe:$1.32/M
DeepSeek V3.1 ist das Upgrade in DeepSeeks V-Serie: ein hybrides, „denkendes/nicht denkendes“ Großsprachmodell, ausgerichtet auf hohen Durchsatz, kostengünstige allgemeine Intelligenz und agentenbasierte Werkzeugnutzung. Es bewahrt die API-Kompatibilität im OpenAI-Stil, ermöglicht intelligentere Tool-Aufrufe und – laut dem Unternehmen – liefert schnellere Generierung sowie eine verbesserte Agenten-Zuverlässigkeit.
D

DeepSeek-R1T2-Chimera

Eingabe:$0.24/M
Ausgabe:$0.24/M
Ein Mixture-of-Experts-Textgenerierungsmodell mit 671B Parametern, zusammengeführt aus R1-0528, R1 und V3-0324 von DeepSeek-AI, das einen Kontext von bis zu 60k Token unterstützt.
D

DeepSeek-Reasoner

Eingabe:$0.44/M
Ausgabe:$1.75/M
DeepSeek-Reasoner ist eine von DeepSeek entwickelte, auf Reasoning ausgerichtete Familie von LLMs und API-Endpunkten, die (1) Aufrufenden die interne Chain-of-Thought (CoT) offenlegt und (2) in “thinking”-Modi arbeitet, die für mehrstufige Planung, Mathematik, Programmierung und den Einsatz von Agenten/Tools optimiert sind.
D

DeepSeek-OCR

Pro Anfrage:$0.04
DeepSeek-OCR ist ein Modell für optische Zeichenerkennung zur Extraktion von Text aus Bildern und Dokumenten. Es verarbeitet gescannte Seiten, Fotos und UI-Screenshots, um Transkriptionen mit Layout-Hinweisen wie Zeilenumbrüchen zu erzeugen. Häufige Anwendungsfälle umfassen die Dokumentendigitalisierung, die Erfassung von Rechnungen und Belegen, die Suchindizierung sowie die Ermöglichung von RPA-Pipelines. Zu den technischen Highlights gehören Bild-zu-Text-Verarbeitung, Unterstützung für gescannte und fotografierte Inhalte sowie eine strukturierte Textausgabe für das nachgelagerte Parsing.
D

DeepSeek-Chat

Kontext:64K
Eingabe:$0.22/M
Ausgabe:$0.88/M
Das beliebteste und kosteneffizienteste DeepSeek-V3-Modell. 671B Vollausbau-Version. Dieses Modell unterstützt eine maximale Kontextlänge von 64,000 Token.
Q

Qwen Image

Pro Anfrage:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

Eingabe:$0.45/M
Ausgabe:$1.79/M
- **kimi-k2-250905**: Kimi K2-Serie von Moonshot AI, Version 0905, unterstützt ultralangen Kontext (bis zu 256k Tokens, Frontend- und Tool-Aufrufe). - 🧠 Erweitertes Tool Calling: 100 % Genauigkeit, nahtlose Integration, geeignet für komplexe Aufgaben und Integrationsoptimierung. - ⚡️ Effizientere Leistung: TPS bis zu 60-100 (Standard-API), bis zu 600-100 im Turbo-Modus, mit schnelleren Reaktionszeiten und verbesserten Inferenzfähigkeiten, Wissensstand bis Mitte 2025.
Q

qwen3-max-preview

Eingabe:$0.24/M
Ausgabe:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

Eingabe:$0.24/M
Ausgabe:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

Eingabe:$0.24/M
Ausgabe:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

Eingabe:$0.24/M
Ausgabe:$0.97/M
Q

qwen3-coder

Eingabe:$0.24/M
Ausgabe:$0.97/M
Q

qwen3-8b

Eingabe:$0.04/M
Ausgabe:$0.16/M
Q

qwen3-32b

Eingabe:$1.60/M
Ausgabe:$6.40/M
Q

qwen3-30b-a3b

Eingabe:$0.12/M
Ausgabe:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

Eingabe:$0.22/M
Ausgabe:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

Eingabe:$0.80/M
Ausgabe:$3.20/M
Q

qwen2.5-vl-72b-instruct

Eingabe:$2.40/M
Ausgabe:$7.20/M
Q

qwen2.5-vl-72b

Eingabe:$2.40/M
Ausgabe:$7.20/M
Q

qwen2.5-vl-32b-instruct

Eingabe:$2.40/M
Ausgabe:$7.20/M
Q

qwen2.5-omni-7b

Eingabe:$60.00/M
Ausgabe:$60.00/M
Q

qwen2.5-math-72b-instruct

Eingabe:$3.20/M
Ausgabe:$3.20/M
Q

qwen2.5-coder-7b-instruct

Eingabe:$0.80/M
Ausgabe:$0.80/M
Q

qwen2.5-coder-32b-instruct

Eingabe:$0.80/M
Ausgabe:$0.80/M
Q

qwen2.5-7b-instruct

Eingabe:$0.80/M
Ausgabe:$0.80/M
Q

qwen2.5-72b-instruct

Eingabe:$3.20/M
Ausgabe:$3.20/M
Q

qwen2.5-32b-instruct

Eingabe:$0.96/M
Ausgabe:$0.96/M
Q

qwen2.5-14b-instruct

Eingabe:$3.20/M
Ausgabe:$3.20/M
Q

qwen2-vl-7b-instruct

Eingabe:$1.60/M
Ausgabe:$1.60/M
Q

qwen2-vl-72b-instruct

Eingabe:$1.60/M
Ausgabe:$1.60/M
Q

qwen2-7b-instruct

Eingabe:$0.16/M
Ausgabe:$0.16/M
Q

qwen2-72b-instruct

Eingabe:$8.00/M
Ausgabe:$8.00/M
Q

qwen2-57b-a14b-instruct

Eingabe:$3.20/M
Ausgabe:$3.20/M
Q

qwen2-1.5b-instruct

Eingabe:$0.16/M
Ausgabe:$0.16/M
Q

qwen1.5-7b-chat

Eingabe:$0.16/M
Ausgabe:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

Eingabe:$3.20/M
Ausgabe:$3.20/M
M

mj_turbo_zoom

Pro Anfrage:$0.17
M

mj_turbo_variation

Pro Anfrage:$0.17
M

mj_turbo_upscale_subtle

Pro Anfrage:$0.17
M

mj_turbo_upscale_creative

Pro Anfrage:$0.17
M

mj_turbo_upscale

Pro Anfrage:$0.02
M

mj_turbo_upload

Pro Anfrage:$0.01
M

mj_turbo_shorten

Pro Anfrage:$0.17
M

mj_turbo_reroll

Pro Anfrage:$0.17
M

mj_turbo_prompt_analyzer_extended

Pro Anfrage:$0.00
M

mj_turbo_prompt_analyzer

Pro Anfrage:$0.00
M

mj_turbo_pic_reader

Pro Anfrage:$0.00
M

mj_turbo_pan

Pro Anfrage:$0.17
M

mj_turbo_modal

Pro Anfrage:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

Pro Anfrage:$0.17
M

mj_turbo_inpaint

Pro Anfrage:$0.08
M

mj_turbo_imagine

Pro Anfrage:$0.17
M

mj_turbo_high_variation

Pro Anfrage:$0.17
M

mj_turbo_describe

Pro Anfrage:$0.00
M

mj_turbo_custom_zoom

Pro Anfrage:$0.00
M

mj_turbo_blend

Pro Anfrage:$0.17
M

mj_fast_zoom

Pro Anfrage:$0.06
M

mj_fast_video

Pro Anfrage:$0.60
Midjourney video generation
M

mj_fast_variation

Pro Anfrage:$0.06
M

mj_fast_upscale_subtle

Pro Anfrage:$0.06
M

mj_fast_upscale_creative

Pro Anfrage:$0.06
M

mj_fast_upscale

Pro Anfrage:$0.01
M

mj_fast_upload

Pro Anfrage:$0.01
M

mj_fast_shorten

Pro Anfrage:$0.06
M

mj_fast_reroll

Pro Anfrage:$0.06
M

mj_fast_prompt_analyzer_extended

Pro Anfrage:$0.00
M

mj_fast_prompt_analyzer

Pro Anfrage:$0.00
M

mj_fast_pic_reader

Pro Anfrage:$0.00
M

mj_fast_pan

Pro Anfrage:$0.06
M

mj_fast_modal

Pro Anfrage:$0.06
M

mj_fast_low_variation

Pro Anfrage:$0.06
M

mj_fast_inpaint

Pro Anfrage:$0.06
M

mj_fast_imagine

Pro Anfrage:$0.06
Midjourney drawing
M

mj_fast_high_variation

Pro Anfrage:$0.06
M

mj_fast_edits

Pro Anfrage:$0.06
M

mj_fast_describe

Pro Anfrage:$0.00
M

mj_fast_custom_zoom

Pro Anfrage:$0.00
M

mj_fast_blend

Pro Anfrage:$0.06
S

suno_uploads

Pro Anfrage:$0.02
Musik hochladen
S

suno_persona_create

Pro Anfrage:$0.01
Create a personal style
S

suno_music

Pro Anfrage:$0.14
抱歉,我仅提供多格式文本的结构保真翻译(目标语言:德语)。请提供需要翻译的内容(可为纯文本、HTML、Markdown、JSON、XML、代码片段等),以及任何术语或风格要求。
S

suno_lyrics

Pro Anfrage:$0.02
Generate lyrics
S

suno_concat

Pro Anfrage:$0.04
Song splicing
S

suno_act_wav

Pro Anfrage:$0.01
Get WAV format files
S

suno_act_timing

Pro Anfrage:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

Pro Anfrage:$0.01
S

suno_act_mp4

Pro Anfrage:$0.01
Generate MP4 MV
K

kling_virtual_try_on

Pro Anfrage:$0.20
K

kling_video

Pro Anfrage:$0.40
K

kling_tts

Pro Anfrage:$0.02
[Sprachsynthese] Neu eingeführt: Text-zu-Broadcast-Audio online, mit Vorschaufunktion ● Kann gleichzeitig eine audio_id erzeugen, verwendbar mit jeder Keling API.
K

kling_multi_image2image

Pro Anfrage:$0.32
K

kling_multi_elements_submit

Pro Anfrage:$0.40
K

kling_multi_elements_preview

Pro Anfrage:$0.00
K

kling_multi_elements_init

Pro Anfrage:$0.00
K

kling_multi_elements_delete

Pro Anfrage:$0.00
K

kling_multi_elements_clear

Pro Anfrage:$0.00
K

kling_multi_elements_add

Pro Anfrage:$0.00
K

kling_lip_sync

Pro Anfrage:$0.20
K

kling_image_recognize

Pro Anfrage:$0.04
Keling API zur Erkennung von Bildelementen, nutzbar für die Videogenerierung mit mehreren Referenzbildern, multimodale Videobearbeitungsfunktionen ● Erkennt Motive, Gesichter, Kleidung usw. und liefert pro Anfrage bis zu 4 Ergebnissätze (falls verfügbar).
K

kling_image_expand

Pro Anfrage:$0.16
K

kling_image

Pro Anfrage:$0.02
K

kling_identify_face

Pro Anfrage:$0.02
K

kling_extend

Pro Anfrage:$0.40
K

kling_effects

Pro Anfrage:$0.40
K

kling_avatar_image2video

Pro Anfrage:$0.16
K

kling_audio_video_to_audio

Pro Anfrage:$0.20
K

kling_audio_text_to_audio

Pro Anfrage:$0.20
K

kling_advanced_lip_syn

Pro Anfrage:$0.20
D

Doubao Seedream 4-5

Pro Anfrage:$0.04
Seedream 4.5 ist das multimodale Bildmodell von ByteDance/Seed (Text→Bild + Bildbearbeitung), das den Schwerpunkt auf Bildtreue in Produktionsqualität, stärkere Einhaltung der Prompts und deutlich verbesserte Bearbeitungskonsistenz legt (Motiverhaltung, Text-/Typografie-Wiedergabe und Gesichtsrealismus).
D

doubao-seedream-4-0-250828

Pro Anfrage:$0.02
D

doubao-seedream-3-0-t2i-250415

Pro Anfrage:$0.02
D

doubao-seededit-3-0-i2i-250628

Pro Anfrage:$0.02
D

doubao-seed-1-6-thinking-250715

Eingabe:$0.04/M
Ausgabe:$1.07/M
D

doubao-seed-1-6-flash-250615

Eingabe:$0.04/M
Ausgabe:$1.07/M
D

doubao-seed-1-6-250615

Eingabe:$0.04/M
Ausgabe:$1.07/M
D

doubao-1.5-vision-pro-250328

Eingabe:$0.33/M
Ausgabe:$1.00/M
D

doubao-1.5-vision-lite-250315

Eingabe:$0.17/M
Ausgabe:$0.50/M
D

doubao-1.5-pro-32k-250115

Eingabe:$0.18/M
Ausgabe:$0.44/M
D

doubao-1.5-pro-256k

Eingabe:$1.10/M
Ausgabe:$1.99/M
D

doubao-1-5-vision-pro-32k

Eingabe:$0.33/M
Ausgabe:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

Eingabe:$0.33/M
Ausgabe:$1.00/M
D

doubao-1-5-thinking-pro-250415

Eingabe:$0.45/M
Ausgabe:$1.79/M
D

doubao-1-5-pro-32k-250115

Eingabe:$0.18/M
Ausgabe:$0.44/M
D

doubao-1-5-pro-32k

Eingabe:$0.18/M
Ausgabe:$0.44/M
D

doubao-1-5-pro-256k-250115

Eingabe:$0.56/M
Ausgabe:$1.00/M
D

doubao-1-5-pro-256k

Eingabe:$1.10/M
Ausgabe:$1.99/M
D

doubao-1-5-lite-32k-250115

Eingabe:$0.03/M
Ausgabe:$0.07/M
D

Doubao-Seed-1.6-thinking

Eingabe:$0.04/M
Ausgabe:$1.07/M
D

Doubao-Seed-1.6-flash

Eingabe:$0.04/M
Ausgabe:$1.07/M
D

Doubao-Seed-1.6

Eingabe:$0.04/M
Ausgabe:$1.07/M
D

Doubao-1.5-vision-pro-32k

Eingabe:$0.33/M
Ausgabe:$1.00/M
D

Doubao-1.5-vision-pro

Eingabe:$0.33/M
Ausgabe:$1.00/M
D

Doubao-1.5-vision-lite

Eingabe:$0.17/M
Ausgabe:$0.50/M
D

Doubao-1.5-thinking-vision-pro

Eingabe:$0.33/M
Ausgabe:$1.00/M
D

Doubao-1.5-thinking-pro

Eingabe:$0.45/M
Ausgabe:$1.79/M
D

Doubao-1.5-pro-32k

Eingabe:$0.18/M
Ausgabe:$0.44/M
D

Doubao-1.5-lite-32k

Eingabe:$0.07/M
Ausgabe:$0.13/M
R

runwayml_video_to_video

Pro Anfrage:$0.96
R

runwayml_upscale_video

Pro Anfrage:$0.16
R

runwayml_text_to_image

Pro Anfrage:$0.32
R

runwayml_image_to_video

Pro Anfrage:$0.32
R

runwayml_character_performance

Pro Anfrage:$0.40
R

runway_video2video

Pro Anfrage:$0.20
R

runway_video

Pro Anfrage:$0.20
R

runway_act_one

Pro Anfrage:$0.40
R

Black Forest Labs/FLUX 2 PRO

Pro Anfrage:$0.06
FLUX 2 PRO ist das kommerzielle Flaggschiffmodell der FLUX‑2‑Serie und liefert Bildgenerierung der neuesten Generation mit beispielloser Qualität und Detailtreue. Entwickelt für professionelle und Unternehmensanwendungen, bietet es überlegene Prompt‑Treue, fotorealistische Ergebnisse und außergewöhnliche künstlerische Fähigkeiten. Dieses Modell repräsentiert den neuesten Stand der KI‑Bildsynthesetechnologie.
R

Black Forest Labs/FLUX 2 FLEX

Pro Anfrage:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

Pro Anfrage:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

Pro Anfrage:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

Pro Anfrage:$0.13
R

stability-ai/stable-diffusion-3.5-large

Pro Anfrage:$0.21
R

stability-ai/stable-diffusion-3

Pro Anfrage:$0.11
R

stability-ai/stable-diffusion

Pro Anfrage:$0.02
R

stability-ai/sdxl

Pro Anfrage:$0.03
R

recraft-ai/recraft-v3-svg

Pro Anfrage:$0.26
R

recraft-ai/recraft-v3

Pro Anfrage:$0.13
R

ideogram-ai/ideogram-v2-turbo

Pro Anfrage:$0.06
R

ideogram-ai/ideogram-v2

Pro Anfrage:$0.10
R

bria/remove-background

Eingabe:$60.00/M
Ausgabe:$60.00/M
R

bria/increase-resolution

Eingabe:$60.00/M
Ausgabe:$60.00/M
R

bria/image-3.2

Eingabe:$60.00/M
Ausgabe:$60.00/M
R

bria/genfill

Eingabe:$60.00/M
Ausgabe:$60.00/M
R

bria/generate-background

Eingabe:$60.00/M
Ausgabe:$60.00/M
R

bria/expand-image

Eingabe:$60.00/M
Ausgabe:$60.00/M
R

bria/eraser

Eingabe:$60.00/M
Ausgabe:$60.00/M
R

black-forest-labs/flux-schnell

Pro Anfrage:$0.01
black-forest-labs/flux-schnell ist ein generatives Text-zu-Bild-Modell von Black Forest Labs, ausgelegt für schnelles Sampling und iterative Prompt-Exploration. Es synthetisiert vielfältige Stile und Kompositionen aus kurzen Prompts, unterstützt negatives Prompting und Seed-Steuerung und kann hochauflösende Ergebnisse erzeugen, die sich für Produkt-Mockups, Concept Art und Marketing-Visuals eignen. Typische Anwendungsfälle umfassen interaktive Ideenfindung, die Erstellung von Thumbnails und Bannern sowie automatisierte kreative Varianten in Content-Pipelines. Zu den technischen Highlights zählen die Kompatibilität mit dem Hugging Face Diffusers-Stack, eine flexible Auflösungssteuerung und ein effizienter Sampler, der für Geschwindigkeit auf gängigen GPUs optimiert ist.
R

black-forest-labs/flux-pro

Pro Anfrage:$0.18
black-forest-labs/flux-pro ist ein generatives Text-zu-Bild-Modell von Black Forest Labs für hochgetreue Bildsynthese über verschiedene Stile und Motive hinweg. Es setzt detaillierte Prompts in stimmige Kompositionen um, mit steuerbaren Attributen wie Seitenverhältnis und Stil über standardisierte Generierungsparameter. Typische Einsatzszenarien umfassen Concept Art, Produktvisualisierung, Werbemittel im Marketing sowie fotorealistische Szenen in Design-Workflows. Zu den technischen Highlights zählen die Text-zu-Bild-Modalität, instruktionsähnliches Befolgen von Prompts und die Integration in gängige Toolchains zur Bildgenerierung.
R

black-forest-labs/flux-kontext-pro

Pro Anfrage:$0.05
black-forest-labs/flux-kontext-pro ist ein multimodales Diffusionsmodell für kontextbezogene Bildgenerierung. Es synthetisiert Bilder aus Text-Prompts und optionalen Referenzbildern, wobei Kompositions- und Stilhinweise erhalten bleiben, um fundierte Ergebnisse zu erzielen. Typische Anwendungsfälle sind die Erstellung von Marken-Assets, Produktvisualisierungen und die visuelle Ideenfindung mit Moodboards oder Beispielaufnahmen. Zu den technischen Highlights zählen Text- und Bildeingaben, referenzkonditioniertes Sampling und reproduzierbare Ausgaben über Seed-Steuerung.
R

black-forest-labs/flux-kontext-max

Pro Anfrage:$0.10
black-forest-labs/flux-kontext-max ist ein kontextkonditioniertes Bildgenerierungsmodell aus der FLUX-Reihe, das darauf ausgelegt ist, aus Text Bilder zu erzeugen – optional unter Verwendung von Referenzeingaben. Es ermöglicht kontextgebundene Synthese, den Erhalt von Stil oder Motiv sowie kontrollierte Variationen, die durch den bereitgestellten visuellen Kontext gesteuert werden. Typische Anwendungsfälle umfassen markenkonsistente Kreativmaterialien, Produkt-Mockups, Konsistenz von Charakteren und Moodboard-gestützte Ideenfindung. Zu den technischen Highlights zählen die diffusionsbasierte Generierung und die multimodale Konditionierung mit Text- und Referenzeingaben, geeignet für referenzgeleitete Workflows.
R

black-forest-labs/flux-dev

Pro Anfrage:$0.08
black-forest-labs/flux-dev ist ein Text-zu-Bild-Modell mit offenen Gewichten von Black Forest Labs zur Generierung von Bildern aus Prompts in natürlicher Sprache. Es liefert aus detaillierten Prompts fotorealistische und stilisierte Ergebnisse und ist mit gängigen Steuerungsoptionen in Diffusions-Toolchains kompatibel. Typische Anwendungsfälle umfassen Concept Art, Produktvisualisierung, Marketingbilder und schnelle kreative Exploration in Design-Workflows. Zu den technischen Highlights zählen ein Transformer-basiertes Rectified-Flow-Design, die Integration mit der Hugging Face Diffusers-Bibliothek sowie die Bereitstellung über Standard-GPU-Inferenz-Stacks.
R

black-forest-labs/flux-1.1-pro-ultra

Pro Anfrage:$0.19
black-forest-labs/flux-1.1-pro-ultra ist ein Text-zu-Bild-Diffusionstransformer, der für die produktive Bildsynthese aus natürlichsprachigen Prompts entwickelt wurde. Er erzeugt aus komplexen Anweisungen detaillierte Ergebnisse und bietet Steuerungsmöglichkeiten für Stil, Komposition, Seitenverhältnis, Negative Prompts und Seed-Reproduzierbarkeit. Typische Anwendungsfälle umfassen Werbemittel, Produktvisualisierung, Konzeptkunst und Ideenfindung für Inhalte. Zu den technischen Highlights gehören transformerbasierte Diffusion, Text-Encoder-Guidance sowie die Bereitstellung über gängige Inferenz-APIs mit Scheduler- und Guidance-Parametern.
R

black-forest-labs/flux-1.1-pro

Pro Anfrage:$0.13
black-forest-labs/flux-1.1-pro ist ein Text-zu-Bild-Generierungsmodell von Black Forest Labs für kontrollierbare Visualisierungen mit hoher Wiedergabetreue. Es interpretiert detaillierte Prompts, um Kompositionen über verschiedene Stile und Motive hinweg zu erzeugen, und unterstützt iterative Verfeinerung sowie Bildvarianten in gängigen Diffusions-Workflows. Typische Einsatzszenarien umfassen Concept Art, Produkt-Mockups, Marketingbilder und Szenenerkundung. Zu den technischen Highlights gehören textkonditionierte Bildsynthese sowie die Integration mit Standard-Inferenz-Toolchains, die für Diffusionsmodelle verwendet werden.
F

FLUX 2 PRO

Pro Anfrage:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

Pro Anfrage:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

Eingabe:$0.22/M
Ausgabe:$1.15/M
Llama-4-Scout ist ein universelles Sprachmodell für assistentenähnliche Interaktionen und Automatisierung. Es beherrscht das Befolgen von Anweisungen, Schlussfolgern, Zusammenfassungen und Transformationsaufgaben und kann leichte codebezogene Unterstützung bieten. Typische Anwendungsfälle umfassen Chat-Orchestrierung, wissensangereichertes QA und die Generierung strukturierter Inhalte. Zu den technischen Highlights zählen die Kompatibilität mit Tool-/Funktionsaufrufmustern, retrieval-augmentiertes Prompting und schema-konforme Ausgaben zur Integration in Produkt-Workflows.
L

Llama-4-Maverick

Eingabe:$0.48/M
Ausgabe:$1.44/M
Llama-4-Maverick ist ein Allgemeinzweck-Sprachmodell für Textverständnis und -generierung. Es unterstützt konversationelles QA, Zusammenfassung, strukturiertes Verfassen und grundlegende Unterstützung beim Programmieren, mit Optionen für strukturierte Ausgaben. Häufige Anwendungsfälle umfassen Produktassistenten, Frontends für Wissensabruf und Workflow-Automatisierung, die eine konsistente Formatierung erfordern. Technische Details wie Parameteranzahl, Kontextfenster, Modalität sowie Tool- oder Funktionsaufrufe variieren je nach Distribution; integrieren Sie gemäß den dokumentierten Fähigkeiten der jeweiligen Bereitstellung.
M

minimax_video-01

Pro Anfrage:$1.44
M

minimax_minimax-hailuo-02

Pro Anfrage:$2.88
M

minimax_files_retrieve

Pro Anfrage:$0.00
M

minimax-m2

Eingabe:$0.24/M
Ausgabe:$0.96/M
minimax-m2 ist ein kompaktes und effizientes Large Language Model, optimiert für End-to-End-Programmierung und Agenten-Workflows, mit 10 Milliarden aktiven Parametern (230 Milliarden Gesamtparametern). Es erreicht nahe am State-of-the-Art liegende Leistungen in allgemeiner Inferenz, Tool-Nutzung und mehrschrittiger Aufgabenausführung, bei gleichzeitig geringer Latenz und hoher Bereitstellungseffizienz. Das Modell überzeugt in Code-Generierung, Bearbeitung über mehrere Dateien, Compile-Run-Fix-Schleifen und Fehlerbehebung während der Testverifikation, erzielt hervorragende Ergebnisse in Benchmarks wie SWE-Bench Verified, Multi-SWE-Bench und Terminal-Bench und zeigt Wettbewerbsfähigkeit bei der Aufgabenplanung mit langen Zyklen, der Informationsbeschaffung und der Behebung von Ausführungsfehlern in Agentenbewertungen wie BrowseComp und GAIA. Laut der Bewertung von Artificial Analysis rangiert MiniMax-M2 in der Spitzengruppe der Open-Source-Modelle in Bereichen umfassender Intelligenz wie Mathematik, wissenschaftlicher Inferenz und Befolgen von Anweisungen. Die geringe Anzahl aktiver Parameter ermöglicht schnelle Inferenz, hohe Parallelität und bessere Unit Economics, was es ideal für großangelegte Agentenbereitstellungen, Entwickler-Hilfstools und inferenzgetriebene Anwendungen macht, die Reaktionsgeschwindigkeit und Kosteneffizienz erfordern.
F

flux-pro-finetuned

Pro Anfrage:$0.07
F

flux-pro-1.1-ultra-finetuned

Pro Anfrage:$0.10
F

flux-pro-1.1-ultra

Pro Anfrage:$0.07
F

flux-pro-1.1

Pro Anfrage:$0.05
F

flux-pro-1.0-fill-finetuned

Pro Anfrage:$0.10
F

flux-pro-1.0-fill

Pro Anfrage:$0.06
F

flux-pro-1.0-depth-finetuned

Pro Anfrage:$0.10
F

flux-pro-1.0-depth

Pro Anfrage:$0.06
F

flux-pro-1.0-canny-finetuned

Pro Anfrage:$0.10
F

flux-pro-1.0-canny

Pro Anfrage:$0.06
F

flux-pro

Pro Anfrage:$0.05
F

flux-kontext-pro

Pro Anfrage:$0.05
F

flux-kontext-max

Pro Anfrage:$0.10
F

flux-finetune

Pro Anfrage:$0.05
F

flux-dev

Pro Anfrage:$0.03
H

hunyuan-vision

Eingabe:$2.01/M
Ausgabe:$2.01/M
H

hunyuan-turbos-vision-20250619

Eingabe:$0.33/M
Ausgabe:$1.00/M
H

hunyuan-turbos-vision

Eingabe:$0.33/M
Ausgabe:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

Eingabe:$0.17/M
Ausgabe:$0.67/M
H

hunyuan-turbos-latest

Eingabe:$0.09/M
Ausgabe:$0.22/M
H

hunyuan-turbos-20250604

Eingabe:$0.09/M
Ausgabe:$0.22/M
H

hunyuan-turbos-20250515

Eingabe:$0.09/M
Ausgabe:$0.22/M
H

hunyuan-turbos-20250416

Eingabe:$0.09/M
Ausgabe:$0.22/M
H

hunyuan-turbos-20250313

Eingabe:$0.09/M
Ausgabe:$0.22/M
H

hunyuan-t1-vision-20250619

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-t1-vision

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-t1-latest

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-t1-20250711

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-t1-20250529

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-t1-20250521

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-t1-20250403

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-t1-20250321

Eingabe:$0.11/M
Ausgabe:$0.45/M
H

hunyuan-standard-256K

Eingabe:$0.06/M
Ausgabe:$0.22/M
H

hunyuan-standard

Eingabe:$0.09/M
Ausgabe:$0.22/M
H

hunyuan-role

Eingabe:$0.45/M
Ausgabe:$0.89/M
H

hunyuan-pro

Eingabe:$1.60/M
Ausgabe:$1.60/M
H

hunyuan-lite

Eingabe:$1.60/M
Ausgabe:$1.60/M
H

hunyuan-large-vision

Eingabe:$0.45/M
Ausgabe:$1.34/M
H

hunyuan-large

Eingabe:$0.45/M
Ausgabe:$1.34/M
H

hunyuan-functioncall

Eingabe:$0.45/M
Ausgabe:$0.89/M
H

hunyuan-embedding

Eingabe:$0.08/M
Ausgabe:$0.08/M
H

hunyuan-code

Eingabe:$0.39/M
Ausgabe:$0.78/M
H

hunyuan-all

Eingabe:$0.11/M
Ausgabe:$0.22/M
H

hunyuan-a13b

Eingabe:$0.06/M
Ausgabe:$0.22/M
H

hunyuan

Eingabe:$0.11/M
Ausgabe:$0.11/M
Z

glm-zero-preview

Eingabe:$60.00/M
Ausgabe:$60.00/M
Z

glm-4v-plus

Eingabe:$4.80/M
Ausgabe:$4.80/M
Z

glm-4v

Eingabe:$24.00/M
Ausgabe:$24.00/M
Z

GLM 4.6

Kontext:200
Eingabe:$0.64/M
Ausgabe:$2.56/M
Zhipus neuestes Flaggschiffmodell GLM-4.6 veröffentlicht: Gesamtparameter 355B, aktive Parameter 32B. Die Kernfähigkeiten insgesamt übertreffen GLM-4.5. Programmierung: Gleichauf mit Claude Sonnet 4, bestes in China. Kontext: Auf 200K erweitert (ursprünglich 128K). Inferenz: Verbessert, unterstützt Tool-Aufrufe. Suche: Optimiertes Tool- und Agenten-Framework. Schreiben: Stärker an menschlichen Präferenzen, Schreibstil und Rollenspiel ausgerichtet. Mehrsprachigkeit: Verbesserte Übersetzungsleistung.
Z

glm-4.5-x

Eingabe:$3.20/M
Ausgabe:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

Eingabe:$0.16/M
Ausgabe:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

Eingabe:$1.60/M
Ausgabe:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

Eingabe:$0.16/M
Ausgabe:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

Eingabe:$0.48/M
Ausgabe:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

Eingabe:$24.00/M
Ausgabe:$24.00/M
Z

glm-4-long

Eingabe:$0.48/M
Ausgabe:$0.48/M
Z

glm-4-flash

Eingabe:$0.05/M
Ausgabe:$0.05/M
Z

glm-4-airx

Eingabe:$4.80/M
Ausgabe:$4.80/M
Z

glm-4-air

Eingabe:$0.48/M
Ausgabe:$0.48/M
Z

glm-4-0520

Eingabe:$24.00/M
Ausgabe:$24.00/M
Z

glm-4

Eingabe:$24.00/M
Ausgabe:$24.00/M
Z

glm-3-turbo

Eingabe:$1.60/M
Ausgabe:$1.60/M