GPT-5 mini er en letvægt, en omkostningsoptimeret variant af OpenAIs flagskibsmodel GPT-5, designet til at levere høj kvalitet ræsonnement og multimodale evner med reduceret latenstid og omkostning.
Grundlæggende oplysninger og nøglefunktioner
GPT-5 mini er OpenAIs omkostnings- og latenstidsoptimeret medlem af GPT-5-familien, der har til formål at levere mange af GPT-5's multimodale og instruktionsfølgende styrker på væsentligt lavere omkostninger til storskalaproduktion. Den er rettet mod miljøer, hvor kapacitet, forudsigelig prisfastsættelse pr. tokenog hurtige svar er de primære begrænsninger, samtidig med at de stadig tilbyder stærke generelle funktioner.
- Modelnavn:
gpt-5-mini - Kontekstvindue: 400 tokens
- Maks output tokens: 128 000
- Nøglefunktioner: hastighed, gennemløbshastighed, omkostningseffektivitet, deterministiske output til præcise prompts
Tekniske detaljer — arkitektur, inferens og kontroller
Optimeret inferenssti og implementering. Praktiske hastighedsforøgelser kommer fra kernefusion, tensorparallelisme indstillet til en mindre graf, og en inferenskørselstid, der foretrækker kortere interne "tænknings"-løkker medmindre udvikleren anmoder om en dybere begrundelse. Derfor opnår mini mærkbart lavere beregningshastighed pr. kald og forudsigelig latenstid for trafik med høj volumen. Denne afvejning er bevidst: lavere beregning pr. fremadrettet gennemløb → lavere omkostninger og lavere gennemsnitlig latenstid.
Udviklerkontroller. GPT-5 mini eksponerer parametre som f.eks. verbosity (kontrollerer detaljer/længde) og reasoning_effort (handelshastighed vs. dybde), plus robust værktøjsopkald support (funktionskald, parallelle værktøjskæder og struktureret fejlhåndtering), som gør det muligt for produktionssystemer at justere nøjagtighed vs. omkostninger præcist.
Benchmark-performance — hovedtal og fortolkning
GPT-5 mini sidder typisk inden for ~85–95% af GPT-5 højt på generelle benchmarks, samtidig med at latenstid/pris forbedres væsentligt. Platformens lanceringsmaterialer indikerer meget høje absolutte scorer for GPT-5 høj (AIME ≈ 94.6% rapporteret for den bedste variant), hvor mini er noget lavere, men stadig brancheførende for sin pris.
På tværs af en række standardiserede og interne benchmarks, GPT-5 mini opnår:
- Intelligens (AIME '25): 91.1% (vs. 94.6% for GPT-5 høj)
- multimodal (MMMU): 81.6 % (mod 84.2 % for GPT-5 high)
- Kodning (SWE-bench verificeret): 71.0% (vs. 74.9% for GPT-5 high)
- Instruktion følger (Skala MultiChallenge): 62.3% (vs. 69.6%)
- Funktionsopkald (τ²-bench telekommunikation): 74.1% (vs. 96.7%)
- Hallucinationsrater (LongFact-Concepts): 0.7% (jo lavere, jo bedre)()
Disse resultater demonstrerer GPT-5 mini'er robust afvejninger mellem ydeevne, omkostninger og hastighed.
Begrænsninger
Kendte begrænsninger: GPT-5 mini reduceret dyb ræsonnementsevne vs. fuld GPT-5, højere følsomhed over for tvetydige prompter og resterende risici for hallucinationer.
- Reduceret dybdegående ræsonnement: For ræsonnementsopgaver med flere trin og lang horisont klarer den fulde ræsonnementsmodel eller "tænkningsvarianter" sig bedre end mini.
- Hallucinationer og overdreven selvtillid: Mini reducerer hallucinationer i forhold til meget små modeller, men eliminerer dem ikke; output bør valideres i flows med høj indsats (juridisk, klinisk, compliance).
- Kontekstfølsomhed: Meget lange, meget indbyrdes afhængige kontekstkæder er bedre tjent med de fulde GPT-5-varianter med større kontekstvinduer eller "tænkemodellen".
- Sikkerheds- og politikbegrænsninger: De samme sikkerhedsrækværk og hastigheds-/brugsgrænser, der gælder for andre GPT-5-modeller, gælder for mini; følsomme opgaver kræver menneskeligt tilsyn.
Anbefalede anvendelsesscenarier (hvor mini udmærker sig)
- Agenter med høj volumen af samtaler: lav latenstid, forudsigelig pris. Søgeord: kapacitet.
- Dokument- og multimodal opsummering: Lang kontekstopsummering, billede+tekstrapporter. Søgeord: lang sammenhæng.
- Udviklerværktøjer i stor skala: CI-kodetjek, automatisk gennemgang, letvægtskodegenerering. Søgeord: omkostningseffektiv kodning.
- Agentorkestrering: værktøjskald med parallelle kæder, når dyb ræsonnement ikke er påkrævet. Søgeord: værktøjsopkald.
Sådan ringer du gpt-5-mini API fra CometAPI
gpt-5-mini API-priser i CometAPI, 20 % rabat på den officielle pris:
| Indtast tokens | $0.20 |
| Output tokens | $1.60 |
Påkrævede trin
- Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, bedes du registrere dig først
- Få adgangslegitimations-API-nøglen til grænsefladen. Klik på "Tilføj token" ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og send.
- Hent url'en til dette websted: https://api.cometapi.com/
Brug metoden
- Vælg "
gpt-5-mini" / "gpt-5-mini-2025-08-07” endepunkt for at sende API-anmodningen og indstille anmodningsteksten. Forespørgselsmetoden og anmodningsteksten er hentet fra vores websteds API-dokument. Vores websted tilbyder også Apifox-test for din bekvemmelighed. - Erstatte med din faktiske CometAPI-nøgle fra din konto.
- Indsæt dit spørgsmål eller din anmodning i indholdsfeltet – det er det, modellen vil reagere på.
- . Behandle API-svaret for at få det genererede svar.
CometAPI leverer en fuldt kompatibel REST API – til problemfri migrering. Vigtige detaljer til API-dok:
- Kerneparametre:
prompt,max_tokens_to_sample,temperature,stop_sequences - Endpoint: https://api.cometapi.com/v1/chat/completions
- Modelparameter: "
gpt-5-mini" / "gpt-5-mini-2025-08-07" - Godkendelse:
Bearer YOUR_CometAPI_API_KEY - Indholdstype:
application/json.
API-kaldsinstruktioner: gpt-5-chat-latest skal kaldes ved hjælp af standarden /v1/chat/completions format. For andre modeller (gpt-5, gpt-5-mini, gpt-5-nano og deres forældede versioner), brug the /v1/responses format anbefalesDer er i øjeblikket to tilstande tilgængelige.
Se også GPT-5 Model


