5.–7. mars 2026 lanserte OpenAI offentlig GPT-5.4, en grensedyttende modell eksplisitt justert for profesjonelle, dokumenttunge og agentbaserte arbeidsflyter. Utgivelsen fremhever tre konvergerende fremskritt: (1) vesentlig større kontekstvinduer (≈1,050,000 tokens), (2) en ny «reasoning»-kapabilitet som lar utviklere styre intern resonnementinnsats, og (3) førsteklasses computer-use / verktøyorkestrering og forbedret multimodal forståelse (tekst + bilder + skjermbilder). Disse funksjonene gjør GPT-5.4 spesielt godt egnet til oppgaver som regnearkmodellering, kontraktsgjennomgang, lysbildeproduksjon, flertrinns agentbaserte arbeidsflyter og å skrive kode som opererer live-systemer.
Du kan prøve GPT-5.4 i CometAPI. En variant med høyere beregningskapasitet — GPT-5.4 Pro — er tilgjengelig for de mest krevende resonnement- og fleromgangsarbeidslastene.
Hva er GPT-5.4 (inkludert Thinking- og Pro-variantene)
Modellfamilien, i korte trekk
GPT-5.4 er posisjonert som den «frontier»-modellen i GPT-5-serien for komplekst profesjonelt arbeid: langform-tekster, kode, flertrinns resonnement og agentbaserte arbeidsflyter. Utgivelsen samler kapabiliteter som tidligere var delt mellom Codex (koding) og GPT-linjen — så du får én modell som kan kode, resonnere, bruke verktøy og håndtere lange kontekster. Den offisielle modellveiledningen lister gpt-5.4 som standard for det meste arbeid og gpt-5.4-pro for de tøffeste problemene.
Nøkkelspesifikasjoner (offisielle):
- Kontekstvindu: ~1,050,000 tokens (≈ 700–800k engelske ord), som muliggjør svært store inndata som hele bokutkast, flerfil-kodebaser eller lange juridiske dokumenter.
- Maks utdata-tokens: rapporter tyder på støtte for svært store utdata (f.eks. opptil 128,000 tokens i enkelte Pro-konfigurasjoner).
- Varianter:
gpt-5.4(standard),gpt-5.4-pro(mer compute, lengre tenking), og lettere/mini-modeller for kostnadssensitive tilfeller.
«Thinking» og «Pro» forklart
- GPT-5.4 Thinking: en justert modus for interaktivt resonnement. Den vektlegger «plan-først»-arbeidsflyter — modellen kan presentere en plan på forhånd (en «upfront plan») før den genererer fullstendige resultater, slik at man kan styre underveis og redusere bortkastet tokenforbruk i feil retning. Denne modusen øker innsyn i modellens tiltenkte steg og gjør lange oppgaver tryggere og mer kontrollerbare.
- GPT-5.4 Pro: søskenet med høy beregning for de vanskeligste problemene — dypere tankerekker, større interne compute-budsjetter og mer deterministiske/stabile resultater på krevende benchmarker. Den eksponeres i Responses API og er ment for fleromgangs, tunge resonnementoppgaver (forvent høyere ventetid og kostnad).
Viktige forbedringer og nye funksjoner i GPT-5.4
Massive kontekstvinduer (≈1,050,000 tokens)
Dette er en av hovedforbedringene: en modell som kan konsumere og resonnere over hele bøker, flerfil-kodebaser eller foretakets dokumentsett uten å strømme dem inn stykkevis. Praktisk forenkler det oppgaver som gjennomgang av hele kontrakter, fullstendig dokumentsammendrag og flerdokument-spørsmål/svar. Bruksområder: juridisk due diligence, tekniske revisjoner og agentlogger.
Praktisk merknad: det større kontekstvinduet endrer systemdesign — i stedet for aggressiv oppdeling kan du nå holde mer «global» tilstand i kontekst, men du bør fortsatt bruke komprimering (se Parameterkontroll) for å holde kostnadene fornuftige.
Native datamaskinbruk og verktøyintegrasjoner
GPT-5.4 er den første generaliserte modellen med native datamaskinbruk: generering av sekvenser av nettleser- eller OS-handlinger (Playwright-skript, tastatur-/musehendelser), lesing av skjermbilder, interaksjon med webgrensesnitt og orkestrering av fler-verktøy-arbeidsflyter. Dette er et stort skritt mot å bygge autonome agenter som utfører reelle oppgaver ende-til-ende.
GPT-5.4 inkluderer innebygd datamaskinbruk: modellen kan interagere med lokale/fjernstyrte programvareagenter, kalle konnektorer, manipulere regneark, ta skjermbilder og automatisere flertrinns arbeidsflyter når det er tillatt. Det reduserer lim-kode: i stedet for å bygge skjøre instruksjonsinnpakninger kan modellen operere i en bygg–kjør–verifiser–rett-løkke (agentbasert atferd) ved å bruke dokumenterte verktøy-API-er. Dette er et stort steg mot trygge, praktiske autonome agenter.
Resonneringsmoduser og reasoning.effort
En justerbar reasoning.effort-parameter lar deg styre hvor mye intern beregning modellen investerer i tankerekke og løsningssøk (valg: none, low, medium, high, xhigh). Høyere innsats gir bedre svar på komplekse problemer, men koster mer og øker ventetiden — ideelt for gpt-5.4-pro.
Forhåndsplanlegging / interaktive planer
«Upfront plans» lar modellen skrive ut en kort plan før den utfører en lang generering. Planen kan inspiseres og endres av utvikleren eller brukeren, noe som minimerer bortkastet utdata og muliggjør kursendringer midt i oppgaven (utmerket for lang dokumentproduksjon eller flertrinnsanalyser).
Bedre multimodale/dokumentferdigheter
Benchmarker og interne evalueringer publisert med modellen viser store gevinster på regnearkoppgaver (eksempel på intern regneark-evaluering: GPT-5.4 snitt 87,3 % vs GPT-5.2 68,4 %) og menneskelig preferanse for presentasjonsutdata (presentasjoner fra GPT-5.4 foretrukket 68 % vs GPT-5.2 i menneskelige tester). Selskapet rapporterer også reduksjoner i faktiske feil (falsk-rate per enkeltpåstand ned ~33 %, full respons-feilrate ned ~18 % kontra GPT-5.2).
Slik bruker du GPT-5.4 API (Responses API / Chat API )
GPT-5.4 pro støtter kun response-tilgang. GPT-5.4 (thinking) støtter chat og responses. CometAPI( en alt-i-ett aggregeringsplattform for store modell-API-er med rabatter) tilbyr GPT-5.4-serien, to tilgangsmetoder og kompatible nyttige playgrounds).
Merk: Responses API er den anbefalte integrasjonen for GPT-5.x-modeller fordi den direkte støtter resonnementparametere, verktøyregistrering og de større kontekststørrelsene.
Python — Responses API (illustrative)
# pip install openai (or use the official package named in docs)
from openai import OpenAI
import os
api_key = os.environ.get("OPENAI_API_KEY") # or set env var
client = OpenAI(api_key=api_key)
resp = client.responses.create(
model="gpt-5.4-pro-2026-03-05",
input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
reasoning={"effort": "high"}, # hidden internal reasoning tokens used
max_output_tokens=4096, # keep below max output limit for your use case
temperature=0.0, # deterministic for legal/technical tasks
tools=[ # optionally register tools the model can call
{
"name": "file_search",
"type": "file_search",
"config": {"root": "/mnt/data/contracts"}
}
],
response_format={"type":"json", "json_schema":{
"name":"redlines",
"schema":{"type":"object","properties":{"summary":{"type":"string"},"redlines":{"type":"array","items":{"type":"object"}}}}
}}
)
print(resp.output_text) # final model answer
Merknader: reasoning er et objekt som styrer intern innsats; tools registrerer tilgjengelige verktøygrensesnitt som modellen kan kalle; response_format håndhever strukturert utdata. reasoning.effort-etikettverdiene som er tilgjengelige spenner fra none (raskest) opp til xhigh (mest intern innsats) avhengig av SDK- og leverandørstøtte. Bruk lav innsats for enkle sammendrag; øk den for komplekse, flertrinnsoppgaver.
Crul— chat API (illustrativt)
curl --location --request POST 'https://api.cometapi.com/v1/chat/completions' \
--header 'Authorization: Bearer ' \
--header 'Content-Type: application/json' \
--data-raw '{
"model": "gpt-5.2\4",
"messages": [
{
"role": "system",
"content": "You are a helpful assistant."
},
{
"role": "user",
"content": "Hello!"
}
]
}'
Bruke verktøy med GPT-5.4 (datamaskinbruk, konnektorer og agenter)
Den mest praktiske kvantespranget i GPT-5.4 er dens agentbaserte, verktøybevisste atferd: den kan oppdage og kalle riktig verktøy, jobbe med regneark og brukergrensesnitt når den har tillatelse, og resonnerer om handlingene den vil ta.
GPT-5.4 er designet for å fungere med verktøy. Det er tre hovedklasser å vurdere:
- Hostede verktøy (f.eks.
web_search,file_search) — modellen kan kalle disse som en del av responsløkken. Ideelt for å hente oppdatert info eller vektor-DB-oppslag. - Egendefinerte verktøy / funksjonskall — dine egne serverendepunkter eller funksjonsskjemaer. Deklarer funksjoner (skjemaer) slik at modellen returnerer strukturerte utdata som koden din kjører.
- Computer use — modellen avgir GUI-handlinger og forventer et rammeverk som utfører dem (klikk, tasting, skjermbilder). Dette er kraftig men høyrisiko.
Når du har dusinvis/hundrevis av verktøy, send tool_search og la modellen oppdage relevante verktøyskjemaer ved kjøring. Dette reduserer tokenbruk og cacher ytelse på tvers av utrullinger.
Slik fungerer verktøyintegrasjon (konseptuelt)
- Verktøyoppdagelse: modellen finner tilgjengelige konnektorer (f.eks. Google Sheets, Salesforce, intern DB) basert på en katalog.
- Plan og tillatelse: modellen skriver ut en forhåndsplan som beskriver hvilke verktøy den vil kalle og hvorfor; dette gjennomgås og godkjennes.
- Kall og verifiser: modellen kaller verktøy (via konnektorer eller handlings-API-er), leser resultater og kjører verifiseringskontroller (eller ber om menneskelig bekreftelse).
- Fiksløkke: ved feil forsøker modellen reparasjoner eller ber om veiledning.
Dette mønsteret reduserer skjør, egendefinert orkestrering og sentraliserer logikken i modellen, men krever strenge tilgangskontroller og revisjonslogger.
Kalling med tools (web_search / file_search / computer use)
Responses API støtter å sende en tools-liste. Modellen kan velge verktøy (hostede verktøy som web_search, file_search), eller du kan forhåndsdeklarere og begrense verktøy. Eksempel: be modellen bruke nettsøk.
response = client.responses.create( model="gpt-5.4", input="What are the three most-cited 2025 papers on federated learning?", tools=[{"type": "web_search", "name": "web_search"}], tool_search={"enabled": True})
Hvis du sender mange verktøydefinisjoner, lar tool_search GPT-5.4 utsette innlasting av de fleste verktøy og kun laste de relevante — avgjørende for store verktøyøkosystemer.
Veiledning for parameterkompatibilitet og -kontroll i GPT-5.4
Tradisjonelle LLM-parametere finnes fortsatt, men er begrenset avhengig av resonnementmodus.
Kjerneparametere for GPT-5.4 API
reasoning.effort: Følgende parametere er fullt støttet og anbefales ved kall til GPT-5.4. Styrer hvor mye intern resonnement modellen utfører før den genererer endelig utdata.
Støttede verdier:
nonelowmediumhighxhigh
Eksempel:
response = client.responses.create( model="gpt-5.4", reasoning={"effort": "high"}, input="Explain the Nash equilibrium in game theory.")
Effekter:
| Value | Oppførsel |
|---|---|
| none | Raskest respons |
| low | Lettvektsresonnement |
| medium | Standard balanse |
| high | Sterkt resonnement |
| xhigh | Maksimal resonnementdybde |
Høyere resonnementinnsats øker generelt:
- svarkvalitet
- resonnement-tokens
- ventetid
- kostnad
Standardnivået er typisk medium.
Tools
Definerer verktøy modellen kan kalle. tools + tool_search
tool_searchutsetter innlasting av verktøydefinisjoner for effektivitet; aktiver for store verktøysett.toolsdeklarerer verktøydefinisjoner (web_search, file_search, egendefinerte RPC-er).
Støttede innebygde verktøy inkluderer:
- web search
- file search
- code interpreter
- image generation
Eksempel:
tools=[{
"name":"get_weather",
"description":"Get current weather",
"parameters":{
"type":"object",
"properties":{
"city":{"type":"string"}
}
}
}
Sampling-parametere (styring av tilfeldighet)
Viktig kompatibilitetsregel: Når reasoning.effort ≠ none, kan noen sampling-parametere være ikke støttet. Hvis reasoning.effort er high, kan forespørselen feile eller ignorere temperature.
GPT-5.4-modeller deaktiverer parametere som:
temperaturetop_plogprobs
fordi resonnementmoduser styrer sampling internt.
temperatureStyrer tilfeldighet i tokensampling.
| Verdi | Effekt |
|---|---|
| 0.0 | deterministisk |
| 0.2–0.4 | stabil |
| 0.7 | balansert |
| 1.0 | høy kreativitet |
Eksempel:
{ "model": "gpt-5.4", "temperature": 0.2, "reasoning": { "effort": "none" }}
Hvis reasoning.effort er high, kan forespørselen feile eller ignorere temperature.
top_p: Nucleus-sampling-parameter.
| Verdi | Betydning |
|---|---|
| 0.9 | vurder topp 90 % sannsynlighet |
| 0.5 | konservativ generering |
| 1.0 | full fordeling |
- stop: Stopper generering ved spesifikke tokens.
Nyttig for:
- kodegenerering
- verktøyløp
- chat-avskillere
Verbosity: Styrer svarlengde.
Flere nye parametere dukket opp fra og med GPT-5-modellene, inkludert GPT-5.4.
Verdier:
lowmediumhigh
Eksempel:
verbosity="high"
Bruksområder:
| Verdi | Oppførsel |
|---|---|
| low | konsise svar |
| medium | balansert |
| high | lange forklaringer |
Denne parameteren bidrar til å styre utdata-lengde uten å manipulere token-grenser.
Parameterforskjeller i GPT-5.4
Nedenfor er en forenklet kompatibilitetstabell.
| Parameter | reasoning:none | reasoning:low+ |
|---|---|---|
| temperature | ✓ | ✗ / ignorert |
| top_p | ✓ | ✗ |
| logprobs | ✓ | ✗ |
| max_output_tokens | ✓ | ✓ |
| tools | ✓ | ✓ |
| tool_choice | ✓ | ✓ |
| verbosity | ✓ | ✓ |
| reasoning.effort | ✓ | ✓ |
Sammenligning av parametere og kapabiliteter: GPT-5.4 vs GPT-5.4-Pro
| Funksjon | GPT-5.4 | GPT-5.4-Pro |
|---|---|---|
| Resonneringsfleksibilitet | Fullt spenn fra none → xhigh | Kun medium → xhigh |
| Ventetid | Lavere | Høyere (komplekse oppgaver kan ta minutter) |
| Kostnad | Lavere | Høyere grunnet ekstra beregning |
| Bakgrunnskjøring anbefalt | Valgfritt | Anbefales for lange oppgaver |
| Støttede resonnementsnivåer | none, low, medium, high, xhigh | medium, high, xhigh |
Beste praksis for å ta i bruk GPT-5.4 i produksjon
1) Start smått, øk deretter resonnementet
- Begynn med
reasoning.effort=none/low+text.verbosity=lowfor latensfølsomme endepunkter. - For komplekse flyter, gå til
mediumog deretterhighførst etter A/B-testing av kostnad vs nøyaktighet.
2) Foretrekk strukturerte utdata for programmatisk bruk
Bruk funksjonsskjemaer eller Pydantic/JSON-skjemaer slik at modellen returnerer maskinlesbare utdata; reduserer nedstrøms parse-feil.
3) Hold mennesker i loopen for beslutninger med høy konsekvens
Enhver arbeidsflyt som involverer penger, juridiske utfall eller persondata bør kreve menneskelig godkjenning før eksterne effekter.
4) Begrens eksponerte kapabiliteter
Bruk allowed_tools-lister (deny by default) og granulære verktøytillatelser. For datamaskinbruk, håndhev en streng hvitliste for handlinger.
5) Kostnad og token-budsjettering
Bruk max_output_tokens og text.verbosity for forutsigbare kostnader. For svært store kontekster, paginer eller komprimer innhold der det er hensiktsmessig — selv med 1M tokens hjelper komprimerings-/utvalgsstrategier å redusere kostnad.
Avsluttende merknader — migrering og neste steg
GPT-5.4 representerer et meningsfullt steg fremover i å bygge AI-systemer som kan tenke mer, arbeide på tvers av programvare og håndtere svært store kontekster. For de fleste team er den anbefalte migreringsveien:
- Prototyp med et lite utvalg arbeidsflyter (f.eks. kontraktsgjennomgang, lysbildeproduksjon) ved å bruke aliaset
gpt-5.4i et sandkassemiljø. - Mål oppgavenøyaktighet, tokenbruk, ventetid og kostnad vs. tidligere modeller.
- Herd ved å legge til strukturerte utdata, verktøybeskyttelse og menneskelig godkjenning for risikable flyter.
- CometAPI’s API-rabatter kan være i stand til å løse if kostnads- eller latenskrav presser det valget.
Utviklere kan få tilgang til GPT-5.4, GPT-5.4-pro, API via CometAPI nå. For å komme i gang, utforsk modellens kapabiliteter i Playground og se API guide for detaljerte instruksjoner. Før tilgang, vennligst sørg for at du har logget inn på CometAPI og innhentet API-nøkkelen. CometAPI offer a price far lower than the official price to help you integrate.
Klar til å starte?→ Registrer deg for GPT-5.4 i dag !
Hvis du vil ha flere tips, guider og nyheter om AI, følg oss på VK, X og Discord!
