Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Eingabe:$0.2/M
Ausgabe:$1.6/M
Kontext:400K
Maximale Ausgabe:128K
GPT-5 mini ist das kosten- und latenzoptimierte Mitglied der GPT-5-Familie von OpenAI, das darauf ausgelegt ist, einen Großteil der multimodalen Stärken von GPT-5 sowie seiner Stärken bei der Befolgung von Anweisungen zu deutlich geringeren Kosten für den großskaligen Produktionseinsatz bereitzustellen. Es richtet sich an Umgebungen, in denen Durchsatz, vorhersehbare Kosten pro Token und schnelle Antworten die primären Rahmenbedingungen sind, während es gleichzeitig starke allgemeine Fähigkeiten bietet.
Neu
Kommerzielle Nutzung
Playground
Überblick
Funktionen
Preisgestaltung
API

Grundlegende Informationen & zentrale Funktionen

GPT-5 mini ist das kosten- und latenzoptimierte Mitglied der GPT-5-Familie und soll einen Großteil der multimodalen Fähigkeiten und der Stärken bei der Befolgung von Anweisungen von GPT-5 zu deutlich geringeren Kosten für den großskaligen Produktionseinsatz liefern. Es zielt auf Umgebungen ab, in denen Durchsatz, vorhersehbare Preise pro Token und schnelle Antworten die primären Einschränkungen sind, während dennoch starke allgemeine Fähigkeiten bereitgestellt werden.

  • Modellname: gpt-5-mini
  • Kontextfenster: 400 000 Token
  • Maximale Ausgabe-Token: 128 000
  • Hauptmerkmale: Geschwindigkeit, Durchsatz, Kosteneffizienz, deterministische Ausgaben bei knappen Prompts

Wie funktioniert gpt-5-mini?

Optimierter Inferenzpfad & Bereitstellung. Praktische Beschleunigungen ergeben sich aus Kernel-Fusion, für einen kleineren Graphen abgestimmter Tensor-Parallelisierung und einer Inferenz-Laufzeit, die kürzere interne „Denk“-Schleifen bevorzugt, sofern der Entwickler nicht tieferes Schlussfolgern anfordert. Deshalb erreicht mini spürbar geringeren Rechenaufwand pro Aufruf und vorhersehbare Latenzen bei hohem Traffic. Dieser Trade-off ist bewusst: geringerer Rechenaufwand pro Forward-Pass → niedrigere Kosten und geringere durchschnittliche Latenz.

Steuerungsmöglichkeiten für Entwickler. GPT-5 mini stellt Parameter wie verbosity (steuert Detailgrad/Länge) und reasoning_effort (Abwägung Geschwindigkeit vs. Tiefe) bereit sowie robuste Tool-Calling-Unterstützung (Funktionsaufrufe, parallele Tool-Chains und strukturierte Fehlerbehandlung), sodass Produktionssysteme Genauigkeit vs. Kosten präzise abstimmen können.

Benchmark-Leistung — Eckzahlen und Einordnung

GPT-5 mini liegt typischerweise innerhalb von ~85–95% von GPT-5 high bei allgemeinen Benchmarks und verbessert gleichzeitig Latenz/Preis deutlich. Die Unterlagen zum Plattformstart weisen sehr hohe absolute Werte für GPT-5 high aus (AIME ≈ 94.6% für die Top-Variante gemeldet), wobei mini etwas niedriger, aber für seinen Preispunkt weiterhin branchenführend ist.

Über eine Reihe standardisierter und interner Benchmarks erzielt GPT-5 mini:

  • Intelligenz (AIME ’25): 91.1% (vs. 94.6% für GPT-5 high)
  • Multimodal (MMMU): 81.6% (vs. 84.2% für GPT-5 high)
  • Coding (SWE-bench Verified): 71.0% (vs. 74.9% für GPT-5 high)
  • Befolgung von Anweisungen (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • Function Calling (τ²-bench telecom): 74.1% (vs. 96.7%)
  • Halluzinationsraten (LongFact-Concepts): 0.7% (niedriger ist besser)([OpenAI][4])

Diese Ergebnisse zeigen die robusten Kompromisse von GPT-5 mini zwischen Leistung, Kosten und Geschwindigkeit.

Einschränkungen

Bekannte Einschränkungen: GPT-5 mini: reduzierte Kapazität für tiefes Schlussfolgern im Vergleich zu vollem GPT-5, höhere Sensitivität gegenüber mehrdeutigen Prompts und verbleibende Halluzinationsrisiken.

  • Reduziertes tiefes Reasoning: Bei mehrstufigen, langfristigen Reasoning-Aufgaben übertreffen das vollständige Reasoning-Modell oder „Thinking“-Varianten das mini.
  • Halluzinationen & Überkonfidenz: Mini reduziert Halluzinationen gegenüber sehr kleinen Modellen, eliminiert sie jedoch nicht; Ausgaben sollten in risikoreichen Abläufen (rechtlich, klinisch, Compliance) validiert werden.
  • Kontextsensitivität: Sehr lange, stark voneinander abhängige Kontextketten sind mit den vollständigen GPT-5-Varianten mit größeren Kontextfenstern oder dem „Thinking“-Modell besser bedient.
  • Sicherheits- & Richtliniengrenzen: Die gleichen Sicherheitsleitplanken sowie Rate-/Nutzungsbegrenzungen, die für andere GPT-5-Modelle gelten, gelten auch für mini; sensible Aufgaben erfordern menschliche Aufsicht.

Was kann gpt-5-mini?

  • Konversationsagenten mit hohem Volumen: geringe Latenz, vorhersehbare Kosten.
  • Dokument- & multimodale Zusammenfassung: Langkontext-Zusammenfassungen, Bild+Text-Berichte.
  • Entwicklertools im großen Maßstab: CI-Codeprüfungen, Auto-Review, leichtgewichtige Codegenerierung.
  • Agenten-Orchestrierung: Tool-Calling mit parallelen Ketten, wenn tiefes Reasoning nicht erforderlich ist.

Wie beginne ich mit der Nutzung der gpt-5-mini-API?

Erforderliche Schritte

  • Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Nutzer sind, registrieren Sie sich bitte zuerst.
  • Rufen Sie den Zugriffstoken-API-Schlüssel der Schnittstelle ab. Klicken Sie beim API-Token im persönlichen Bereich auf „Add Token“, erhalten Sie den Token-Schlüssel: sk-xxxxx und übermitteln Sie ihn.
  • Rufen Sie die URL dieser Website ab: https://api.cometapi.com/

Verwendung

  1. Wählen Sie den „gpt-5-mini“- / „gpt-5-mini-2025-08-07“-Endpunkt, um die API-Anfrage zu senden, und legen Sie den Request-Body fest. Anfragemethode und Request-Body entnehmen Sie bitte unserer Website-API-Dokumentation. Unsere Website bietet zu Ihrer Unterstützung auch einen Apifox-Test.
  2. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI-Schlüssel aus Ihrem Konto.
  3. Fügen Sie Ihre Frage oder Anfrage in das content-Feld ein — darauf antwortet das Modell.
  4. . Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.

CometAPI stellt eine vollständig kompatible REST-API bereit — für nahtlose Migration. Wichtige Details zur API-Dokumentation:

  • Kernparameter: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpunkt: https://api.cometapi.com/v1/chat/completions
  • Modellparameter: „gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Authentifizierung:  Bearer YOUR_CometAPI_API_KEY 
  • Content-Type: application/json .

Anweisungen für API-Aufrufe: gpt-5-chat-latest sollte mit dem Standard-/v1/chat/completions format aufgerufen werden. Für andere Modelle (gpt-5, gpt-5-mini, gpt-5-nano und ihre datierten Versionen) wird die Verwendung von the /v1/responses format empfohlen. Derzeit sind zwei Modi verfügbar.

Funktionen für GPT-5 mini

Entdecken Sie die wichtigsten Funktionen von GPT-5 mini, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für GPT-5 mini

Entdecken Sie wettbewerbsfähige Preise für GPT-5 mini, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie GPT-5 mini Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$0.2/M
Ausgabe:$1.6/M
Eingabe:$0.25/M
Ausgabe:$2/M
-20%

Beispielcode und API für GPT-5 mini

GPT-5 mini ist eine leichtgewichtige, kostenoptimierte Variante von OpenAIs Flaggschiffmodell GPT-5, die entwickelt wurde, um hochwertiges Reasoning und multimodale Fähigkeiten bei reduzierter Latenz und geringeren Kosten bereitzustellen.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Weitere Modelle