Den 5.–7. marts 2026 lancerede OpenAI offentligt GPT-5.4, en spydspidsmodel, der er specifikt fintunet til professionelle, dokumenttunge og agentbaserede arbejdsgange. Udgivelsen fremhæver tre sammenfaldende fremskridt: (1) væsentligt større kontekstvinduer (≈1.050.000 tokens), (2) en ny “reasoning”-kapabilitet, der lader udviklere styre den interne ræsonneringsindsats, og (3) førsteklasses computerbrug / værktøjsorkestrering samt forbedret multimodal forståelse (tekst + billeder + skærmbilleder). Disse funktioner gør GPT-5.4 særligt velegnet til opgaver som regnearksmodellering, kontraktgennemgang, slidegenerering, flertrins agentbaserede arbejdsgange og at skrive kode, der opererer live-systemer.
Du kan prøve GPT-5.4 i CometAPI. En variant med højere compute — GPT-5.4 Pro — er tilgængelig til de hårdeste ræsonnerings- og multi-turn-arbejdsbelastninger.
Hvad er GPT-5.4 (inklusive Thinking- og Pro-varianterne)
Modelserien i korte træk
GPT-5.4 er positioneret som den “frontier” GPT-5-model til komplekst professionelt arbejde: langformstekster, kode, flertrins ræsonnering og agentbaserede arbejdsgange. Udgivelsen samler kapabiliteter, der tidligere var splittet mellem Codex (kodning) og GPT-linjen — så du får én model, der kan kode, ræsonnere, bruge værktøjer og håndtere lange kontekster. Den officielle modelguide angiver gpt-5.4 som standard til det meste arbejde og gpt-5.4-pro til de hårdeste problemer.
Nøglespecifikationer (officielle):
- Kontekstvindue: ~1.050.000 tokens (≈ 700–800k engelske ord), hvilket muliggør meget store input som hele bogudkast, multifil-kodebaser eller lange juridiske dokumenter.
- Maks. outputtokens: rapporter indikerer, at meget store outputs understøttes (fx op til 128.000 tokens i nogle Pro-konfigurationer).
- Varianter:
gpt-5.4(standard),gpt-5.4-pro(mere compute, længere “thinking”), og lettere/mini-modeller til omkostningsfølsomme brugsscenarier.
“Thinking” og “Pro” forklaret
- GPT-5.4 Thinking: en tunet tilstand til interaktiv ræsonnering. Den vægter plan-first-arbejdsgange — modellen kan præsentere en forudgående plan (en “upfront plan”), før den genererer fulde resultater, hvilket muliggør styring midt i genereringen og reducerer spildte tokens på forkerte retninger. Denne tilstand forbedrer indsigt i modellens tilsigtede trin og gør lange opgaver mere sikre og kontrollerbare.
- GPT-5.4 Pro: søskendevarianten med høj compute til de hårdeste problemer — dybere chain-of-thought, større interne compute-budgetter og mere deterministiske/stabile resultater på svære benchmarks. Den eksponeres i Responses API og er tiltænkt multi-turn, tungt ræsonnerende opgaver (forvent højere latenstid og omkostninger).
Centrale forbedringer og nye funktioner i GPT-5.4
Massive kontekstvinduer (≈1.050.000 tokens)
Dette er en af hovedforbedringerne: en model, der kan konsumere og ræsonnere over hele bøger, multifil-kodebaser eller virksomheds-dokumentsæt uden at streame dem i småbidder. Praktisk forenkler det opgaver som end-to-end kontraktgennemgang, fulddokument-summering og multidokument Q&A. Anvendelser: juridisk due diligence, tekniske audits og agentlogs.
Praktisk note: det større kontekstvindue ændrer systemsdesign — i stedet for aggressiv chunking kan du nu holde mere “global” tilstand i konteksten, men du bør stadig bruge komprimering (se Parameter Control) for at holde omkostningerne fornuftige.
Native computerbrug og værktøjsintegrationer
GPT-5.4 er den første general purpose-model med native computerbrugs-kapabiliteter: generering af sekvenser af browser- eller OS-handlinger (Playwright-scripts, tastatur-/muse-events), læsning af skærmbilleder, interaktion med web-UI’er og orkestrering af multi-værktøjs-arbejdsgange. Dette er et stort skridt mod at bygge autonome agenter, der udfører reelle opgaver end-to-end.
GPT-5.4 inkluderer indbygget computerbrug: modellen kan interagere med lokale/fjernsoftwareagenter, kalde connectors, manipulere regneark, tage skærmbilleder og automatisere flertrins arbejdsgange, når det er tilladt. Det reducerer “glue code”: i stedet for skrøbelige instruktions-wrappere kan modellen operere i en build-run-verify-fix-loop (agentisk adfærd) via dokumenterede værktøjs-API’er. Dette er et stort skridt mod sikre, praktiske autonome agenter.
Ræsonneringstilstande og reasoning.effort
En justerbar parameter reasoning.effort lader dig kontrollere, hvor meget intern compute modellen investerer i chain-of-thought og løsningssøgningsprocessen (muligheder: none, low, medium, high, xhigh). Højere indsats giver bedre svar til komplekse problemer, men koster mere og øger latenstid — ideelt for gpt-5.4-pro.
Forhåndsplanlægning / interaktive planer
“Upfront plans” lader modellen outputte en kort plan, før den udfører en lang generering. Planen kan inspiceres og ændres af udvikler eller bruger, hvilket minimerer spildt output og muliggør kurskorrektion midt i opgaven (fantastisk til lang dokumentoprettelse eller flertrins analyser).
Bedre multimodale/dokumentkompetencer
Benchmarks og interne evalueringer frigivet med modellen viser store fremskridt på regnearksopgaver (eksempel på intern regnearksevaluering: GPT-5.4 gennemsnit 87,3% vs GPT-5.2 68,4%) og menneskelig præference for præsentationsoutputs (præsentationer fra GPT-5.4 foretrukket 68% vs GPT-5.2 i menneskeforsøg). Virksomheden rapporterer også reduktioner i faktuelle fejl (falsk-rate for enkelte påstande ned ~33%, fuld respons-fejtrate ned ~18% vs GPT-5.2).
Sådan bruger du GPT-5.4 API (Responses API / Chat API)
GPT-5.4 pro understøtter kun response-adgang. GPT-5.4 (thinking) understøtter chat og responses. CometAPI (en one-stop-aggregeringsplatform for store model-API’er med rabatter) tilbyder GPT-5.4-serien, to adgangsmetoder og kompatible, nyttige playgrounds.
Bemærk: Responses API anbefales til GPT-5.x-modeller, fordi den understøtter reasoning-parametre, værktøjsregistrering og større kontekststørrelser direkte.
Python — Responses API (illustrativt)
# pip install openai (or use the official package named in docs)
from openai import OpenAI
import os
api_key = os.environ.get("OPENAI_API_KEY") # or set env var
client = OpenAI(api_key=api_key)
resp = client.responses.create(
model="gpt-5.4-pro-2026-03-05",
input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
reasoning={"effort": "high"}, # hidden internal reasoning tokens used
max_output_tokens=4096, # keep below max output limit for your use case
temperature=0.0, # deterministic for legal/technical tasks
tools=[ # optionally register tools the model can call
{
"name": "file_search",
"type": "file_search",
"config": {"root": "/mnt/data/contracts"}
}
],
response_format={"type":"json", "json_schema":{
"name":"redlines",
"schema":{"type":"object","properties":{"summary":{"type":"string"},"redlines":{"type":"array","items":{"type":"object"}}}}
}}
)
print(resp.output_text) # final model answer
Noter: reasoning er et objekt, der styrer intern indsats; tools registrerer tilgængelige værktøjsgrænseflader, som modellen kan kalde; response_format håndhæver struktureret output. Etiketterne for reasoning.effort spænder fra none (hurtigst) til xhigh (størst intern indsats) afhængigt af SDK- og udbyderstøtte. Brug lav indsats til enkle sammenfatninger; øg den til komplekse, flertrins opgaver.
curl — Chat API (illustrativt)
curl --location --request POST 'https://api.cometapi.com/v1/chat/completions' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "gpt-5.2\4",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Hello!"
}
]
}'
Brug af værktøjer med GPT-5.4 (computerbrug, connectors og agenter)
GPT-5.4’s mest praktiske spring er dens agentiske, værktøjsbevidste adfærd: den kan opdage og kalde det rigtige værktøj, arbejde på regneark og UI’er, når det er autoriseret, og ræsonnere om de handlinger, den vil udføre.
GPT-5.4 er designet til at arbejde med værktøjer. Der er tre hovedklasser af værktøjer at overveje:
- Hosted tools (fx
web_search,file_search) — modellen kan kalde disse som en del af respons-loopet. Godt til at hente opdateret info eller vector-DB-opslag. - Custom tools / function calling — dine egne serverendpoints eller funktionsskemaer. Deklarer funktioner (skemaer), så modellen returnerer strukturerede outputs, som din kode eksekverer.
- Computerbrug — modellen udsender GUI-handlinger og forventer et rammeværk, der eksekverer dem (klik, tastning, skærmbilleder). Dette er kraftfuldt men højrisiko.
Når du har dusinvis/hundreder af værktøjer, så videregiv tool_search, og lad modellen opdage relevante værktøjsskemaer ved kørsel. Det reducerer tokenforbrug og forbedrer cache-ydelse på tværs af deployments.
Sådan virker værktøjsintegration (konceptuelt)
- Værktøjsopdagelse: modellen finder tilgængelige connectors (fx Google Sheets, Salesforce, intern DB) baseret på et katalog.
- Plan & tilladelse: modellen outputter en forhåndsplan, der beskriver, hvilke værktøjer den vil kalde, og hvorfor; dette gennemgås og godkendes.
- Kald & verificer: modellen kalder værktøjer (via connectors eller action-API’er), læser resultater og kører verifikationstjek (eller beder om menneskelig bekræftelse).
- Fix-loop: ved fejl forsøger modellen reparationer eller beder om vejledning.
Dette mønster reducerer skrøbelig, specialbygget orkestrering og centraliserer logik i modellen, men det kræver stramme adgangskontroller og revisionslogs.
Kald med tools (web_search / file_search / computerbrug)
Responses API understøtter at passere et tools-array. Modellen kan vælge værktøjer (hosted værktøjer som web_search, file_search), eller du kan foruddeklarere og begrænse værktøjer. Eksempel: bed modellen om at bruge websøgning.
response = client.responses.create( model="gpt-5.4", input="What are the three most-cited 2025 papers on federated learning?", tools=[{"type": "web_search", "name": "web_search"}], tool_search={"enabled": True})
Hvis du giver mange værktøjsdefinitioner, lader tool_search GPT-5.4 udsætte indlæsning af de fleste værktøjer og kun indlæse de relevante — afgørende for store værktøjsøkosystemer.
GPT-5.4 Parameterkompatibilitet og kontrolguide
Traditionelle LLM-parametre findes stadig, men er begrænset afhængigt af reasoning-tilstand.
Kerneparametre for GPT-5.4 API
reasoning.effort: Følgende parameter er fuldt understøttet og anbefalet, når du kalder GPT-5.4. Styrer, hvor meget intern ræsonnering modellen udfører, før den genererer det endelige output.
Understøttede værdier:
nonelowmediumhighxhigh
Eksempel:
response = client.responses.create( model="gpt-5.4", reasoning={"effort": "high"}, input="Explain the Nash equilibrium in game theory.")
Effekter:
| Værdi | Adfærd |
|---|---|
| none | Hurtigste respons |
| low | Letvægtsræsonnering |
| medium | Standardbalance |
| high | Stærk ræsonnering |
| xhigh | Maksimal dybde i ræsonnering |
Højere reasoning-indsats øger generelt:
- svarkvalitet
- ræsonnerings-tokens
- latenstid
- omkostninger
Standardniveauet er typisk medium.
Værktøjer
Definerer værktøjer, modellen kan kalde. tools + tool_search
tool_searchudskyder indlæsning af værktøjsdefinitioner for effektivitet; aktiver det til store værktøjssæt.toolserklærer værktøjsdefinitioner (web_search, file_search, custom RPC’er).
Understøttede indbyggede værktøjer inkluderer:
- websøgning
- filsøgning
- kodefortolker
- billedgenerering
Eksempel:
tools=[{
"name":"get_weather",
"description":"Get current weather",
"parameters":{
"type":"object",
"properties":{
"city":{"type":"string"}
}
}
}
Sampling-parametre (kontrol af tilfældighed)
Vigtig kompatibilitetsregel: Når reasoning.effort ≠ none, er nogle sampling-parametre måske ikke understøttet. Hvis reasoning.effort er high, kan forespørgslen fejle eller ignorere temperature.
GPT-5.4-modeller deaktiverer parametre som:
temperaturetop_plogprobs
fordi reasoning-modeller styrer sampling internt.
temperatureStyrer tilfældighed i token-sampling.
| Værdi | Effekt |
|---|---|
| 0.0 | deterministisk |
| 0.2–0.4 | stabil |
| 0.7 | afbalanceret |
| 1.0 | høj kreativitet |
Eksempel:
{ "model": "gpt-5.4", "temperature": 0.2, "reasoning": { "effort": "none" }}
Hvis reasoning.effort er high, kan forespørgslen fejle eller ignorere temperature.
top_p: Nucleus-sampling-parameter.
| Værdi | Betydning |
|---|---|
| 0.9 | overvej top 90% sandsynlighedstokens |
| 0.5 | konservativ generering |
| 1.0 | fuld fordeling |
- stop: Stopper generering ved specifikke tokens.
Nyttig til:
- kodegenerering
- værktøjspipelines
- chatafgrænsere
Verbosity: Styrer svarlængde.
Flere nye parametre dukkede op fra GPT-5-modeller, inklusive GPT-5.4.
Værdier:
lowmediumhigh
Eksempel:
verbosity="high"
Anvendelser:
| Værdi | Adfærd |
|---|---|
| low | koncise svar |
| medium | afbalanceret |
| high | lange forklaringer |
Denne parameter hjælper med at styre outputlængde uden at manipulere tokenbegrænsninger.
Parameterforskelle i GPT-5.4
Nedenfor er en forenklet kompatibilitetsoversigt.
| Parameter | reasoning:none | reasoning:low+ |
|---|---|---|
| temperature | ✓ | ✗ / ignoreres |
| top_p | ✓ | ✗ |
| logprobs | ✓ | ✗ |
| max_output_tokens | ✓ | ✓ |
| tools | ✓ | ✓ |
| tool_choice | ✓ | ✓ |
| verbosity | ✓ | ✓ |
| reasoning.effort | ✓ | ✓ |
Sammenligning af parametre og kapabiliteter: GPT-5.4 vs. GPT-5.4-Pro
| Funktion | GPT-5.4 | GPT-5.4-Pro |
|---|---|---|
| Reasoning-fleksibilitet | Fuld rækkevidde fra none → xhigh | Kun medium → xhigh |
| Latenstid | Lavere | Højere (komplekse opgaver kan tage minutter) |
| Omkostning | Lavere | Højere pga. ekstra compute |
| Anbefalet baggrundseksekvering | Valgfrit | Anbefalet til lange opgaver |
| Understøttede reasoning-niveauer | none, low, medium, high, xhigh | medium, high, xhigh |
Best practices for at adoptere GPT-5.4 i produktion
1) Start småt, og øg derefter reasoning
- Begynd med
reasoning.effort=none/low+text.verbosity=lowtil latenstidssensitive endepunkter. - Til komplekse flows, gå til
mediumog dernæsthighførst efter A/B-tests af omkostning vs. nøjagtighed.
2) Foretræk strukturerede outputs til programmatiske opgaver
Brug funktionsskemaer eller Pydantic/JSON-skemaer, så modellen returnerer maskinparsbare outputs; reducerer downstream-parseringsfejl.
3) Hold mennesker i loopet ved beslutninger med høj påvirkning
Enhver arbejdsgang, der involverer penge, juridiske udfald eller persondata, bør kræve menneskelig godkendelse, før der opstår eksterne effekter.
4) Begræns eksponerede kapabiliteter
Brug lister over allowed_tools (deny by default) og granulære værktøjstilladelser. For computerbrug: håndhæv en streng whitelist over handlinger.
5) Omkostnings- og tokenbudgettering
Brug max_output_tokens og text.verbosity for forudsigelige omkostninger. Til meget store kontekster, paginer eller komprimer indhold hvor passende — selv med 1M tokens hjælper kompakterings-/selektionsstrategier med at reducere omkostninger.
Afsluttende noter — migration og næste skridt
GPT-5.4 repræsenterer et betydeligt skridt fremad i at bygge AI-systemer, der kan tænke mere, arbejde på tværs af software og håndtere meget store kontekster. For de fleste teams er den anbefalede migrationsvej:
- Prototype med et lille udsnit af arbejdsgange (fx kontraktgennemgang, slidegenerering) ved at bruge aliaset
gpt-5.4i en sandbox. - Mål opgavenøjagtighed, tokenforbrug, latenstid og omkostninger vs. tidligere modeller.
- Hærd ved at tilføje strukturerede outputs, værktøjsvagter og menneskelig godkendelse til risikofyldte flows.
- CometAPIs API-rabatter kan afhjælpe, hvis omkostnings- eller latenstidskrav presser det valg.
Udviklere kan få adgang til GPT-5.4, GPT-5.4-pro og API via CometAPI nu. For at begynde: udforsk modellens kapabiliteter i Playground, og se API-guiden for detaljerede instruktioner. Før adgang, sørg for at du er logget ind i CometAPI og har fået din API-nøgle. CometAPI tilbyder en pris, der er langt lavere end den officielle pris, for at hjælpe dig med at integrere.
Klar til at komme i gang? → Tilmeld dig GPT-5.4 i dag !
Hvis du vil have flere tips, guider og nyheder om AI, så følg os på VK, X og Discord!
