ModellerSupportVirksomhedBlog
500+ AI Model API, Alt I Én API. Kun I CometAPI
Modeller API
Udvikler
Hurtig StartDokumentationAPI Dashboard
Ressourcer
AI-modellerBlogVirksomhedÆndringslogOm os
2025 CometAPI. Alle rettigheder forbeholdes.PrivatlivspolitikServicevilkår
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

Indtast:$0.2/M
Output:$1.6/M
Kontekst:400K
Maks Output:128K
GPT-5 mini er OpenAIs omkostnings- og latensoptimerede medlem af GPT-5-familien, designet til at levere en stor del af GPT-5’s multimodale styrker og evne til at følge instruktioner til væsentligt lavere omkostninger for produktionsbrug i stor skala. Den er målrettet miljøer, hvor gennemløb, forudsigelig prissætning pr. token og hurtige svar er de primære begrænsninger, samtidig med at den fortsat tilbyder stærke generelle kapaciteter.
Ny
Kommersiel brug
Playground
Oversigt
Funktioner
Priser
API

Grundlæggende oplysninger og nøglefunktioner

GPT-5 mini er OpenAI’s omkostnings- og latensoptimerede medlem af GPT-5-familien, designet til at levere en stor del af GPT-5’s multimodale og instruktionsefterfølgende styrker til væsentligt lavere omkostninger for produktion i stor skala. Den er målrettet miljøer, hvor gennemløb, forudsigelige priser pr. token og hurtige svar er de primære begrænsninger, samtidig med at den bevarer stærke generelle kapabiliteter.

  • Model Name: gpt-5-mini
  • Context Window: 400 000 tokens
  • Max Output Tokens: 128 000
  • Key features: hastighed, gennemløb, omkostningseffektivitet, deterministiske output for koncise prompts

Hvordan fungerer gpt-5-mini?

Optimeret inferensforløb og udrulning. Praktiske hastighedsforbedringer kommer fra kernefusion, tensorparallellisme afstemt til en mindre graf og en inferenskøretid, der foretrækker kortere interne “tænke”-sløjfer, medmindre udvikleren anmoder om dybere ræsonnering. Det er grunden til, at mini opnår mærkbart lavere compute pr. kald og forudsigelig latens ved trafik i høj volumen. Denne afvejning er bevidst: lavere beregningsforbrug pr. forward pass → lavere omkostninger og lavere gennemsnitlig latens.

Udviklerkontroller. GPT-5 mini eksponerer parametre som verbosity (styrer detaljeringsgrad/længde) og reasoning_effort (afvejning mellem hastighed og dybde) samt robust støtte til værktøjskald (funktionskald, parallelle værktøjskæder og struktureret fejlhåndtering), som gør det muligt for produktionssystemer præcist at tune nøjagtighed vs. omkostning.

Benchmark-ydelse — hovedtal og fortolkning

GPT-5 mini ligger typisk inden for ~85–95% af GPT-5 high på generelle benchmarks, samtidig med at den væsentligt forbedrer latens/pris. Platformens lanceringsmateriale angiver meget høje absolutte resultater for GPT-5 high (AIME ≈ 94.6% rapporteret for topvarianten), hvor mini ligger noget lavere, men stadig brancheførende i sin prisklasse.

På tværs af en række standardiserede og interne benchmarks opnår GPT-5 mini:

  • Intelligence (AIME ’25): 91.1% (vs. 94.6% for GPT-5 high)
  • Multimodal (MMMU): 81.6% (vs. 84.2% for GPT-5 high)
  • Coding (SWE-bench Verified): 71.0% (vs. 74.9% for GPT-5 high)
  • Instruction Following (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • Function Calling (τ²-bench telecom): 74.1% (vs. 96.7%)
  • Hallucination Rates (LongFact-Concepts): 0.7% (lavere er bedre)([OpenAI][4])

Disse resultater demonstrerer GPT-5 mini’s robuste afvejninger mellem ydeevne, omkostning og hastighed.

Begrænsninger

Kendte begrænsninger: GPT-5 mini reduceret dybderæsonnementskapacitet ift. fuld GPT-5, højere følsomhed over for tvetydige prompts og resterende risici for hallucination.

  • Reduceret dybderæsonnering: Til flertrinsopgaver med lang tidshorisont overgår fuld reasoning-modellen eller “tænke”-varianterne mini.
  • Hallucinationer og overdreven selvtillid: Mini reducerer hallucinationer i forhold til meget små modeller, men eliminerer dem ikke; output bør valideres i højrisikoforløb (juridisk, klinisk, compliance).
  • Kontekstsensitivitet: Meget lange, stærkt indbyrdes afhængige kontekstkæder betjenes bedre af de fulde GPT-5-varianter med større kontekstvinduer eller “tænke”-modellen.
  • Sikkerheds- og politikbegrænsninger: Samme sikkerhedsværn og hastigheds-/forbrugsgrænser, der gælder for andre GPT-5-modeller, gælder også for mini; følsomme opgaver kræver menneskelig overvågning.

Hvad gør gpt-5-mini?

  • Samtaleagenter i stor skala: lav latens, forudsigelige omkostninger.
  • Dokument- og multimodal opsummering: langkontekst-opsummering, billede+tekst-rapporter.
  • Udviklerværktøjer i skala: CI-kodechecks, autoreview, letvægts kodegenerering.
  • Agent-orkestrering: værktøjskald med parallelle kæder, når dyb ræsonnering ikke er påkrævet.

Hvordan begynder jeg at bruge gpt-5-mini-API’et?

Påkrævede trin

  • Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, skal du registrere dig først
  • Hent adgangslegitimations-API-nøglen til interfacet. Klik “Add Token” ved API token i det personlige center, få tokennøglen: sk-xxxxx og indsend.
  • Hent webstedets URL: https://api.cometapi.com/

Brugsmåde

  1. Vælg “gpt-5-mini“ / "gpt-5-mini-2025-08-07"-endepunktet for at sende API-anmodningen og angiv anmodningskroppen. Anmodningsmetoden og anmodningskroppen fås fra vores websteds API-dokumentation. Vores websted tilbyder også Apifox-test for din bekvemmelighed.
  2. Erstat <YOUR_API_KEY> med din faktiske CometAPI-nøgle fra din konto.
  3. Indsæt dit spørgsmål eller din forespørgsel i content-feltet — det er, hvad modellen vil svare på.
  4. . Behandl API-svaret for at få det genererede svar.

CometAPI leverer en fuldt kompatibel REST API—for gnidningsfri migration. Vigtige detaljer til API doc:

  • Core Parameters: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Model Parameter: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Authentication: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .

API-kaldsinstruktioner: gpt-5-chat-latest should be called using the standard /v1/chat/completions format. For other models (gpt-5, gpt-5-mini, gpt-5-nano, and their dated versions), using the /v1/responses format anbefales. Currently two modes are available.

Funktioner til GPT-5 mini

Udforsk de vigtigste funktioner i GPT-5 mini, designet til at forbedre ydeevne og brugervenlighed. Opdag hvordan disse muligheder kan gavne dine projekter og forbedre brugeroplevelsen.

Priser for GPT-5 mini

Udforsk konkurrencedygtige priser for GPT-5 mini, designet til at passe til forskellige budgetter og brugsbehov. Vores fleksible planer sikrer, at du kun betaler for det, du bruger, hvilket gør det nemt at skalere, efterhånden som dine krav vokser. Opdag hvordan GPT-5 mini kan forbedre dine projekter, mens omkostningerne holdes håndterbare.
Comet-pris (USD / M Tokens)Officiel Pris (USD / M Tokens)Rabat
Indtast:$0.2/M
Output:$1.6/M
Indtast:$0.25/M
Output:$2/M
-20%

Eksempelkode og API til GPT-5 mini

GPT-5 mini er en letvægts- og omkostningsoptimeret variant af OpenAI’s flagskibsmodel GPT-5, designet til at levere højkvalitetsræsonnering og multimodale kapaciteter med lavere latenstid og omkostninger.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Flere modeller

A

Claude Opus 4.6

Indtast:$4/M
Output:$20/M
Claude Opus 4.6 er Anthropic’s "Opus"-klasse store sprogmodel, lanceret i februar 2026. Den er positioneret som en arbejdshest til vidensarbejde og forskningsarbejdsgange — med forbedret langkontekstuel ræsonnering, flertrinsplanlægning, brug af værktøjer (herunder agent-baserede softwarearbejdsgange) og computeropgaver såsom automatiseret generering af slides og regneark.
A

Claude Sonnet 4.6

Indtast:$2.4/M
Output:$12/M
Claude Sonnet 4.6 er vores hidtil mest kapable Sonnet-model. Det er en fuld opgradering af modellens færdigheder på tværs af kodning, computerbrug, langkontekstlig ræsonnering, agentplanlægning, vidensarbejde og design. Sonnet 4.6 har også et kontekstvindue på 1M tokens i beta.
O

GPT-5.4 nano

Indtast:$0.16/M
Output:$1/M
GPT-5.4 nano er designet til opgaver, hvor hastighed og omkostninger er vigtigst, såsom klassificering, dataudtræk, rangering og subagenter.
O

GPT-5.4 mini

Indtast:$0.6/M
Output:$3.6/M
GPT-5.4 mini samler styrkerne fra GPT-5.4 i en hurtigere og mere effektiv model, der er designet til arbejdsbelastninger i stor skala.
A

Claude Mythos Preview

A

Claude Mythos Preview

Kommer snart
Indtast:$60/M
Output:$240/M
Claude Mythos Preview er vores hidtil mest kapable frontier-model og viser et markant spring i resultaterne på tværs af mange benchmark-tests sammenlignet med vores tidligere frontier-model, Claude Opus 4.6.
X

mimo-v2-pro

Indtast:$0.8/M
Output:$2.4/M
MiMo-V2-Pro er Xiaomis flagskibs-grundmodel med over 1T samlede parametre og en kontekstlængde på 1M, dybt optimeret til agentbaserede scenarier. Den er meget tilpasningsdygtig til generelle agent-rammeværk som OpenClaw. Den placerer sig blandt den globale top i de standardiserede PinchBench- og ClawBench-benchmarks, med en oplevet ydeevne, der nærmer sig Opus 4.6. MiMo-V2-Pro er designet til at fungere som hjernen i agent-systemer, orkestrere komplekse arbejdsgange, håndtere produktionsingeniøropgaver og levere pålidelige resultater.