ModelleSupportUnternehmenBlog
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Ressourcen
KI-ModelleBlogUnternehmenÄnderungsprotokollÜber uns
2025 CometAPI. Alle Rechte vorbehalten.DatenschutzrichtlinieNutzungsbedingungen
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Eingabe:$0.2/M
Ausgabe:$1.6/M
Kontext:400K
Maximale Ausgabe:128K
GPT-5 mini ist das kosten- und latenzoptimierte Mitglied der GPT-5-Familie von OpenAI, das darauf ausgelegt ist, einen Großteil der multimodalen Stärken von GPT-5 sowie seiner Stärken bei der Befolgung von Anweisungen zu deutlich geringeren Kosten für den großskaligen Produktionseinsatz bereitzustellen. Es richtet sich an Umgebungen, in denen Durchsatz, vorhersehbare Kosten pro Token und schnelle Antworten die primären Rahmenbedingungen sind, während es gleichzeitig starke allgemeine Fähigkeiten bietet.
Neu
Kommerzielle Nutzung
Playground
Überblick
Funktionen
Preisgestaltung
API

Grundlegende Informationen & Schlüsselmerkmale

GPT-5 mini ist das von OpenAI kosten- und latenzoptimierte Mitglied der GPT-5-Familie, das einen Großteil der multimodalen und Anweisungsbefolgungs-Stärken von GPT-5 zu deutlich niedrigeren Kosten für den großflächigen Produktionseinsatz bereitstellt. Es zielt auf Umgebungen ab, in denen Durchsatz, vorhersehbare Preise pro Token und schnelle Antworten die primären Einschränkungen sind, während gleichzeitig starke allgemeine Fähigkeiten erhalten bleiben.

  • Modellname: gpt-5-mini
  • Context Window: 400 000 Tokens
  • Max Output Tokens: 128 000
  • Schlüsselmerkmale: Geschwindigkeit, Durchsatz, Kosteneffizienz, deterministische Ausgaben für prägnante Prompts

Wie funktioniert gpt-5-mini?

Optimierter Inferenzpfad & Bereitstellung. Praktische Beschleunigungen ergeben sich aus Kernel Fusion, für einen kleineren Graphen abgestimmter Tensor-Parallelisierung und einer Inferenz-Laufzeit, die kürzere interne „Denk“-Schleifen bevorzugt, sofern der Entwickler nicht ausdrücklich tieferes Reasoning anfordert. Daher erzielt mini deutlich geringere Rechenkosten pro Aufruf und vorhersehbare Latenz bei hohem Traffic. Dieser Kompromiss ist beabsichtigt: geringerer Rechenaufwand pro Forward-Pass → niedrigere Kosten und geringere durchschnittliche Latenz.

Entwicklersteuerung. GPT-5 mini stellt Parameter wie verbosity (steuert Detail/​Länge) und reasoning_effort (Abwägung Geschwindigkeit vs. Tiefe) bereit sowie robuste Tool-Calling-Unterstützung (Funktionsaufrufe, parallele Tool-Ketten und strukturierte Fehlerbehandlung), wodurch Produktionssysteme Genauigkeit und Kosten präzise austarieren können.

Benchmark-Leistung — Kennzahlen und Einordnung

GPT-5 mini liegt typischerweise bei ~85–95% von GPT-5 high in allgemeinen Benchmarks, verbessert dabei jedoch die Latenz/​den Preis erheblich. Die Materialien zum Plattform-Launch zeigen sehr hohe absolute Scores für GPT-5 high (AIME ≈ 94,6% für die Top-Variante), wobei mini etwas niedriger liegt, aber für seinen Preispunkt weiterhin branchenführend ist.

Über eine Reihe standardisierter und interner Benchmarks erzielt GPT-5 mini:

  • Intelligenz (AIME ’25): 91,1% (vs. 94,6% für GPT-5 high)
  • Multimodal (MMMU): 81,6% (vs. 84,2% für GPT-5 high)
  • Coding (SWE-bench Verified): 71,0% (vs. 74,9% für GPT-5 high)
  • Befolgung von Anweisungen (Scale MultiChallenge): 62,3% (vs. 69,6%)
  • Funktionsaufrufe (τ²-bench Telekom): 74,1% (vs. 96,7%)
  • Halluzinationsraten (LongFact-Concepts): 0,7% (je niedriger, desto besser)([OpenAI][4])

Diese Ergebnisse zeigen die robusten Abwägungen von GPT-5 mini zwischen Leistung, Kosten und Geschwindigkeit.

Einschränkungen

Bekannte Einschränkungen: GPT-5 mini reduzierte Kapazität für tiefes Reasoning im Vergleich zum vollständigen GPT-5, höhere Sensitivität gegenüber mehrdeutigen Prompts und verbleibende Risiken von Halluzinationen.

  • Reduziertes tiefes Reasoning: Bei mehrstufigen Aufgaben mit langem Zeithorizont sind das vollständige Reasoning-Modell oder „Denk“-Varianten dem mini überlegen.
  • Halluzinationen & Überkonfidenz: Mini reduziert Halluzinationen gegenüber sehr kleinen Modellen, eliminiert sie jedoch nicht; Ausgaben sollten in risikoreichen Abläufen (rechtlich, klinisch, Compliance) validiert werden.
  • Kontextsensitivität: Sehr lange, hochgradig voneinander abhängige Kontextketten sind bei den vollständigen GPT-5-Varianten mit größeren Context Windows oder beim „Denk“-Modell besser aufgehoben.
  • Sicherheits- & Richtliniengrenzen: Es gelten dieselben Sicherheitsleitplanken sowie Raten-/​Nutzungsgrenzen wie bei anderen GPT-5-Modellen; sensible Aufgaben erfordern menschliche Aufsicht.

Was leistet gpt-5-mini?

  • Conversational Agents mit hohem Volumen: geringe Latenz, vorhersehbare Kosten.
  • Dokumenten- & multimodale Zusammenfassungen: Long-Context-Zusammenfassungen, Berichte aus Bild+Text.
  • Developer-Tooling in großem Maßstab: CI-Code-Checks, Auto-Review, leichtgewichtiges Code-Generieren.
  • Agenten-Orchestrierung: Tool-Calling mit parallelen Ketten, wenn kein tiefes Reasoning erforderlich ist.

Wie beginne ich mit der Nutzung der gpt-5-mini-API?

Erforderliche Schritte

  • Melden Sie sich bei cometapi.com an. Wenn Sie noch kein Nutzer sind, registrieren Sie sich bitte zuerst.
  • Rufen Sie den API-Schlüssel (Access Credential) der Schnittstelle ab. Klicken Sie im persönlichen Center bei API Token auf „Add Token“, holen Sie den Token-Schlüssel: sk-xxxxx und senden Sie ihn ab.
  • Rufen Sie die URL dieser Site ab: https://api.cometapi.com/

Verwendungsmethode

  1. Wählen Sie den Endpunkt „gpt-5-mini“ / „gpt-5-mini-2025-08-07“, um die API-Anfrage zu senden, und legen Sie den Request-Body fest. Die Request-Methode und der Request-Body sind unserer Website-API-Dokumentation zu entnehmen. Unsere Website bietet zu Ihrer Bequemlichkeit auch Apifox-Tests an.
  2. Ersetzen Sie <YOUR_API_KEY> durch Ihren tatsächlichen CometAPI-Schlüssel aus Ihrem Konto.
  3. Fügen Sie Ihre Frage oder Anforderung in das content-Feld ein — darauf wird das Modell antworten.
  4. . Verarbeiten Sie die API-Antwort, um die generierte Antwort zu erhalten.

CometAPI stellt eine vollständig kompatible REST-API bereit — für nahtlose Migration. Wichtige Details zur API doc:

  • Kernparameter: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpunkt: https://api.cometapi.com/v1/chat/completions
  • Modell-Parameter: „gpt-5-mini“ / „gpt-5-mini-2025-08-07"
  • Authentifizierung: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .

API Call Instructions: gpt-5-chat-latest should be called using the standard /v1/chat/completions format. For other models (gpt-5, gpt-5-mini, gpt-5-nano, and their dated versions), using the /v1/responses format wird empfohlen. Derzeit sind zwei Modi verfügbar.

Funktionen für GPT-5 mini

Entdecken Sie die wichtigsten Funktionen von GPT-5 mini, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für GPT-5 mini

Entdecken Sie wettbewerbsfähige Preise für GPT-5 mini, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie GPT-5 mini Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$0.2/M
Ausgabe:$1.6/M
Eingabe:$0.25/M
Ausgabe:$2/M
-20%

Beispielcode und API für GPT-5 mini

GPT-5 mini ist eine leichtgewichtige, kostenoptimierte Variante von OpenAIs Flaggschiffmodell GPT-5, entwickelt, um hochwertige Schlussfolgerungs- und multimodale Fähigkeiten bei verringerter Latenz und geringeren Kosten bereitzustellen.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Weitere Modelle

A

Claude Opus 4.6

Eingabe:$4/M
Ausgabe:$20/M
Claude Opus 4.6 ist das Großsprachmodell der „Opus“-Klasse von Anthropic, veröffentlicht im Februar 2026. Es ist als Arbeitstier für Wissensarbeit und Forschungs-Workflows positioniert — mit Verbesserungen beim langkontextuellen Denken, bei der mehrstufigen Planung, bei der Tool-Nutzung (einschließlich agentenbasierter Software-Workflows) sowie bei computerbezogenen Aufgaben wie der automatisierten Erstellung von Folien und Tabellen.
A

Claude Sonnet 4.6

Eingabe:$2.4/M
Ausgabe:$12/M
Claude Sonnet 4.6 ist unser bisher leistungsfähigstes Sonnet-Modell. Es ist ein umfassendes Upgrade der Fähigkeiten des Modells in den Bereichen Programmierung, Computernutzung, Schlussfolgern mit langem Kontext, Agentenplanung, Wissensarbeit und Design. Sonnet 4.6 bietet außerdem ein 1M-Token-Kontextfenster in Beta.
O

GPT-5.4 nano

Eingabe:$0.16/M
Ausgabe:$1/M
GPT-5.4 nano ist für Aufgaben konzipiert, bei denen Geschwindigkeit und Kosten am wichtigsten sind, wie Klassifizierung, Datenextraktion, Ranking und Sub-Agenten.
O

GPT-5.4 mini

Eingabe:$0.6/M
Ausgabe:$3.6/M
GPT-5.4 mini bringt die Stärken von GPT-5.4 in ein schnelleres, effizienteres Modell, das für hochvolumige Workloads konzipiert ist.
A

Claude Mythos Preview

A

Claude Mythos Preview

Demnächst verfügbar
Eingabe:$60/M
Ausgabe:$240/M
Claude Mythos Preview ist unser bisher leistungsfähigstes Frontier-Modell und zeigt einen bemerkenswerten Sprung bei den Ergebnissen in vielen Evaluations-Benchmarks im Vergleich zu unserem vorherigen Frontier-Modell, Claude Opus 4.6.
X

mimo-v2-pro

Eingabe:$0.8/M
Ausgabe:$2.4/M
MiMo-V2-Pro ist Xiaomis Flaggschiff unter den Foundation-Modellen und verfügt über insgesamt mehr als 1T Parameter sowie eine Kontextlänge von 1M. Es ist umfassend für agentische Szenarien optimiert. Es ist in hohem Maße an allgemeine Agent-Frameworks wie OpenClaw anpassbar. In den Standard-Benchmarks PinchBench und ClawBench zählt es weltweit zur Spitzengruppe, wobei die wahrgenommene Leistung an die von Opus 4.6 heranreicht. MiMo-V2-Pro wurde als Gehirn von Agentensystemen konzipiert, um komplexe Workflows zu orchestrieren, produktionsnahe Engineering-Aufgaben voranzutreiben und zuverlässig Ergebnisse zu liefern.