ModellerStøtteBedriftBlogg
500+ AI-modell API, Alt I Én API. Bare I CometAPI
Modeller API
Utvikler
HurtigstartDokumentasjonAPI Dashbord
Ressurser
AI-modellerBloggBedriftEndringsloggOm oss
2025 CometAPI. Alle rettigheter reservert.PersonvernerklæringTjenestevilkår
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Inndata:$0.2/M
Utdata:$1.6/M
Kontekst:400K
Maks utdata:128K
GPT-5 mini er OpenAIs kostnads- og latensoptimaliserte medlem av GPT-5-familien, utformet for å levere mye av GPT-5s multimodale styrker og evne til å følge instruksjoner til vesentlig lavere kostnad for storskala produksjonsbruk. Den retter seg mot miljøer der gjennomstrømning, forutsigbar prising per token og raske responser er de primære begrensningene, samtidig som den fortsatt tilbyr sterke generelle kapabiliteter.
Ny
Kommersiell bruk
Playground
Oversikt
Funksjoner
Priser
API

Grunnleggende informasjon og nøkkelfunksjoner

GPT-5 mini er OpenAIs kost- og latensoptimaliserte medlem av GPT-5-familien, ment å levere mye av GPT-5s multimodale og instruksjonsfølging-styrker til betydelig lavere kostnad for produksjon i stor skala. Den retter seg mot miljøer der gjennomstrømning, forutsigbar pris per token og raske responser er de primære begrensningene, samtidig som den fortsatt tilbyr sterke allmenne kapabiliteter.

  • Modellnavn: gpt-5-mini
  • Kontekstvindu: 400 000 tokens
  • Maks utdata-tokens: 128 000
  • Nøkkelfunksjoner: hastighet, gjennomstrømning, kostnadseffektivitet, deterministiske utdata for konsise forespørsler

Hvordan fungerer gpt-5-mini?

Optimalisert inferensbane og utrulling. Praktiske hastighetsgevinster kommer fra kernel-fusjon, tensorparallellisme tunet for en mindre graf, og en inferens-kjøretid som foretrekker kortere interne "tenke"-sløyfer med mindre utvikleren ber om dypere resonnering. Derfor oppnår mini merkbart lavere compute per kall og forutsigbar latens for trafikk med stort volum. Dette kompromisset er bevisst: lavere compute per forward pass → lavere kostnad og lavere gjennomsnittlig latens.

Utviklerkontroller. GPT-5 mini eksponerer parametere som verbosity (styrer detaljer/lengde) og reasoning_effort (bytter hastighet mot dybde), pluss robust tool-calling-støtte (funksjonskall, parallelle verktøykjeder og strukturert feilhåndtering), som lar produksjonssystemer finjustere nøyaktighet kontra kostnad presist.

Benchmark-ytelse — nøkkeltall og tolkning

GPT-5 mini ligger typisk innenfor ~85–95% av GPT-5 high på generelle benchmarker, samtidig som den forbedrer latens/pris betydelig. Plattformens lanseringsmateriell indikerer svært høye absolutte scorer for GPT-5 high (AIME ≈ 94.6% rapportert for toppvarianten), med mini noe lavere, men fortsatt bransjeledende for sin prisklasse.

På tvers av et utvalg standardiserte og interne benchmarker oppnår GPT-5 mini:

  • Intelligens (AIME ’25): 91.1% (vs. 94.6% for GPT-5 high)
  • Multimodal (MMMU): 81.6% (vs. 84.2% for GPT-5 high)
  • Koding (SWE-bench Verified): 71.0% (vs. 74.9% for GPT-5 high)
  • Instruksjonsfølging (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • Funksjonskalling (τ²-bench telecom): 74.1% (vs. 96.7%)
  • Hallusinasjonsrater (LongFact-Concepts): 0.7% (lavere er bedre)([OpenAI][4])

Disse resultatene demonstrerer GPT-5 minis robuste avveininger mellom ytelse, kostnad og hastighet.

Begrensninger

Kjente begrensninger: GPT-5 mini redusert dyp-resonneringskapasitet sammenlignet med full GPT-5, høyere sensitivitet for tvetydige forespørsler, og fortsatt risiko for hallusinasjoner.

  • Redusert dyp resonnering: For flertrinns oppgaver med lang horisont overgår full resonneringsmodell eller “tenke”-varianter mini.
  • Hallusinasjoner og overdreven selvsikkerhet: Mini reduserer hallusinasjoner sammenlignet med svært små modeller, men eliminerer dem ikke; utdata bør valideres i høyrisikoflyter (juridisk, klinisk, compliance).
  • Kontekstsensitivitet: Svært lange, sterkt innbyrdes avhengige kontekstkjeder betjenes bedre av fullstendige GPT-5-varianter med større kontekstvindu eller “tenke”-modellen.
  • Sikkerhet og retningslinjer: Samme sikkerhetsrekkverk og hastighets-/bruksgrenser som gjelder for andre GPT-5-modeller gjelder for mini; sensitive oppgaver krever menneskelig tilsyn.

Hva gjør gpt-5-mini?

  • Samtaleagenter i høyt volum: lav latens, forutsigbar kostnad.
  • Dokument- og multimodal oppsummering: oppsummering med lang kontekst, bilde+tekst-rapporter.
  • Utviklerverktøy i skala: CI-kodekontroller, automatisk gjennomgang, lettvekts kodegenerering.
  • Agentorkestrering: tool-calling med parallelle kjeder når dyp resonnering ikke kreves.

Hvordan begynner jeg å bruke gpt-5-mini API-et?

Nødvendige trinn

  • Logg inn på cometapi.com. Hvis du ikke er bruker hos oss ennå, registrer deg først
  • Hent tilgangslegitimasjonen (API-nøkkelen) til grensesnittet. Klikk “Add Token” ved API token i det personlige senteret, hent token-nøkkelen: sk-xxxxx og send inn.
  • Hent URL-en til dette nettstedet: https://api.cometapi.com/

Bruksmåte

  1. Velg “gpt-5-mini“ / "gpt-5-mini-2025-08-07" endepunktet for å sende API-forespørselen og angi forespørselsinnholdet (request body). Forespørselsmetoden og request body finnes i nettstedets API-dokumentasjon. Nettstedet vårt tilbyr også Apifox-test for din bekvemmelighet.
  2. Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din.
  3. Sett inn spørsmålet eller forespørselen din i feltet content—det er dette modellen svarer på.
  4. . Behandle API-responsen for å få det genererte svaret.

CometAPI tilbyr et fullt kompatibelt REST API—for sømløs migrering. Nøkkeldetaljer til API-dokumentasjon:

  • Kjerneparametre: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endepunkt: https://api.cometapi.com/v1/chat/completions
  • Modellparameter: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Autentisering: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .

Instruksjoner for API-kall: gpt-5-chat-latest bør kalles ved å bruke standarden /v1/chat/completions format. For andre modeller (gpt-5, gpt-5-mini, gpt-5-nano, og deres daterte versjoner), er det anbefalt å bruke the /v1/responses format. For øyeblikket er to modi tilgjengelige.

Funksjoner for GPT-5 mini

Utforsk nøkkelfunksjonene til GPT-5 mini, designet for å forbedre ytelse og brukervennlighet. Oppdag hvordan disse mulighetene kan være til nytte for prosjektene dine og forbedre brukeropplevelsen.

Priser for GPT-5 mini

Utforsk konkurransedyktige priser for GPT-5 mini, designet for å passe ulike budsjetter og bruksbehov. Våre fleksible planer sikrer at du bare betaler for det du bruker, noe som gjør det enkelt å skalere etter hvert som kravene dine vokser. Oppdag hvordan GPT-5 mini kan forbedre prosjektene dine samtidig som kostnadene holdes håndterbare.
Komet-pris (USD / M Tokens)Offisiell pris (USD / M Tokens)Rabatt
Inndata:$0.2/M
Utdata:$1.6/M
Inndata:$0.25/M
Utdata:$2/M
-20%

Eksempelkode og API for GPT-5 mini

GPT-5 mini er en lettvekts- og kostnadsoptimalisert variant av OpenAIs flaggskipmodell GPT-5, utformet for å levere resonnering av høy kvalitet og multimodale kapabiliteter med redusert latens og kostnader.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Flere modeller

A

Claude Opus 4.6

Inndata:$4/M
Utdata:$20/M
Claude Opus 4.6 er en stor språkmodell i «Opus»-klassen fra Anthropic, lansert i februar 2026. Den er posisjonert som en arbeidshest for arbeidsflyter innen kunnskapsarbeid og forskning — med forbedringer i resonnering over lange kontekster, flertrinns planlegging, verktøybruk (inkludert agentbaserte programvarearbeidsflyter) og oppgaver på datamaskin, som automatisk generering av lysbilder og regneark.
A

Claude Sonnet 4.6

Inndata:$2.4/M
Utdata:$12/M
Claude Sonnet 4.6 er vår mest kapable Sonnet-modell hittil. Det er en fullstendig oppgradering av modellens ferdigheter innen koding, bruk av datamaskin, resonnering over lange kontekster, agentplanlegging, kunnskapsarbeid og design. Sonnet 4.6 har også et kontekstvindu på 1M token i beta.
O

GPT-5.4 nano

Inndata:$0.16/M
Utdata:$1/M
GPT-5.4 nano er utviklet for oppgaver der hastighet og kostnader er viktigst, som klassifisering, datauttrekk, rangering og underagenter.
O

GPT-5.4 mini

Inndata:$0.6/M
Utdata:$3.6/M
GPT-5.4 mini bringer styrkene fra GPT-5.4 til en raskere, mer effektiv modell, designet for arbeidslaster i stor skala.
A

Claude Mythos Preview

A

Claude Mythos Preview

Kommer snart
Inndata:$60/M
Utdata:$240/M
Claude Mythos Preview er vår mest kapable frontier-modell til dags dato, og viser et markant sprang i resultater på mange evalueringsbenchmarker sammenlignet med vår forrige frontier-modell, Claude Opus 4.6.
X

mimo-v2-pro

Inndata:$0.8/M
Utdata:$2.4/M
MiMo-V2-Pro er Xiaomis flaggskip-grunnmodell, med over 1T totale parametere og en kontekstlengde på 1M, dypt optimalisert for agentiske scenarier. Den er svært tilpasningsdyktig til generelle agentrammeverk som OpenClaw. Den rangerer blant den globale toppklassen i standardbenchmarkene PinchBench og ClawBench, med opplevd ytelse som nærmer seg Opus 4.6. MiMo-V2-Pro er utformet for å fungere som hjernen i agentsystemer, orkestrere komplekse arbeidsflyter, drive produksjonsnære ingeniøroppgaver og levere resultater pålitelig.