Kodenavnet GPT-5.3“Garlic” beskrives i lekkasjer og rapporter som en neste inkrementell/iterativ GPT-5.x-utgivelse ment å lukke gap i resonnement, koding og produktopptreden for OpenAI som svar på konkurransepress fra Googles Gemini og Anthropics Claude.
OpenAI eksperimenterer med en tettere, mer effektiv GPT-5.x-iterasjon fokusert på sterkere resonnement, raskere inferens og arbeidsflyter med lengre kontekst fremfor utelukkende stadig større antall parametere. Dette er ikke bare en ny iterasjon av Generative Pre-trained Transformer-serien; det er en strategisk motoffensiv. Født ut av en intern "Code Red" erklært av CEO Sam Altman i desember 2025, representerer "Garlic" et brudd med "større er bedre"-dogmet som har styrt LLM-utvikling i et halvt tiår. I stedet satser den alt på en ny metrikk: kognitiv tetthet.
Hva er GPT-5.3 “Garlic”?
GPT-5.3 — med kodenavn “Garlic” — beskrives som neste iterative steg i OpenAIs GPT-5-familie. Kildene som rammer inn lekkasjen, posisjonerer Garlic ikke som et enkelt sjekkpunkt eller en token-justering, men som en målrettet arkitektur- og treningsforbedring: målet er å hente ut høyere resonnementsprestasjon, bedre flerstegsplanlegging og forbedret langtidskontekst-atferd fra en mer kompakt, inferenseffektiv modell, i stedet for å stole utelukkende på rå skala. Denne innrammingen samsvarer med bredere bransjetrender mot “tette” eller “høyeffektive” modelldesign.
Tilnavnet "Garlic"—et tydelig brudd med tidligere himmelske (Orion) eller botanisk-søte (Strawberry) kodenavn—er etter sigende en bevisst intern metafor. Akkurat som en enkelt hvitløksfedd kan krydre en hel rett mer potent enn større, mer smaksløse ingredienser, er denne modellen designet for å levere konsentrert intelligens uten den massive beregningsoverheaden til industriens giganter.
Den "Code Red"-opprinnelsen
Eksistensen av Garlic kan ikke skilles fra den eksistensielle krisen som fødte den. Sent i 2025 befant OpenAI seg i en "defensiv posisjon" for første gang siden lanseringen av ChatGPT. Googles Gemini 3 hadde tatt tronen for multimodale resultater, og Anthropics Claude Opus 4.5 hadde blitt de facto-standarden for kompleks koding og agentiske arbeidsflyter. Som svar satte OpenAI-ledelsen på vent perifere prosjekter—inkludert annonseplattform-eksperimenter og utvidelser av forbrukeragenter— for å fokusere fullt og helt på en modell som kunne gjennomføre et "taktisk angrep" på disse konkurrentene.
Garlic er dette angrepet. Den er ikke designet for å være verdens største modell; den er designet for å være den smarteste per parameter. Den slår sammen forskningslinjene fra tidligere interne prosjekter, spesielt "Shallotpeat", og inkorporerer feilrettinger og fortreningseffektiviseringer som gjør at den kan prestere langt over sin vektklasse.
Hva er status for GPT-5.3-modellens observerte iterasjoner?
Per midten av januar 2026 er GPT-5.3 i de siste fasene av intern validering, en fase ofte beskrevet i Silicon Valley som "herding". Modellen er for øyeblikket synlig i interne logger og er stikkprøve-testet av utvalgte bedriftskunder under strenge konfidensialitetsavtaler.
Observerte iterasjoner og "Shallotpeat"-integrasjon
Veien til Garlic var ikke lineær. Lekkede interne notater fra Chief Research Officer Mark Chen antyder at Garlic faktisk er en sammensetning av to distinkte forskningsspor. Opprinnelig utviklet OpenAI en modell med kodenavn "Shallotpeat", som var ment som en direkte inkrementell oppdatering. Under fortreningen av Shallotpeat oppdaget forskere imidlertid en ny metode for å "komprimere" resonnementsmønstre—i praksis å lære modellen å forkaste redundante nevrale baner tidligere i treningsprosessen.
Denne oppdagelsen førte til at den frittstående Shallotpeat-utgivelsen ble skrinlagt. Arkitekturen ble slått sammen med den mer eksperimentelle "Garlic"-grenen. Resultatet er en hybrid iterasjon som besitter stabiliteten til en moden GPT-5-variant, men den eksplosive resonnementseffektiviteten til en ny arkitektur.

Når kan vi anta at lanseringen vil skje?
Å forutsi OpenAIs lanseringsdatoer er notorisk vanskelig, men "Code Red"-statusen akselererer standard tidslinjer. Basert på konvergensen av lekkasjer, leverandøroppdateringer og konkurrenters sykluser kan vi triangulere et lanseringsvindu.
Primærvindu: Q1 2026 (januar - mars)
Konsensus blant innsidere er en lansering i Q1 2026. "Code Red" ble erklært i desember 2025, med et pålegg om å lansere "så snart som mulig." Gitt at modellen allerede er i kontroll/validering (fusjonen med "Shallotpeat" har akselerert tidslinjen), virker slutten av januar eller begynnelsen av februar mest sannsynlig.
"Beta"-utrulling
Vi kan se en trinnvis utrulling:
- Slutten av januar 2026: En "forhåndsvisning" for utvalgte partnere og ChatGPT Pro-brukere (muligens under etiketten "GPT-5.3 (Preview)").
- Februar 2026: Full API-tilgjengelighet.
- Mars 2026: Integrering i gratisnivået av ChatGPT (begrensede forespørsler) for å møte Geminis gratis tilgjengelighet.
3 definerende egenskaper ved GPT-5.3?
Hvis ryktene stemmer, vil GPT-5.3 introdusere et sett med funksjoner som prioriterer nytteverdi og integrasjon fremfor ren generativ kreativitet. Funksjonssettet leses som en ønskeliste for systemarkitekter og bedriftsutviklere.
1. Høytetthets-fortrening (EPTE)
Juvelen i kronen til Garlic er Enhanced Pre-Training Efficiency (EPTE).
Tradisjonelle modeller lærer ved å se enorme mengder data og skape et vidt forgrenet nettverk av assosiasjoner. Garlicks treningsprosess innebærer etter sigende en "beskjæringsfase" der modellen aktivt kondenserer informasjon.
- Resultatet: En modell som er fysisk mindre (målt i VRAM-krav), men som beholder "verdenskunnskapen" til et mye større system.
- Fordelen: Raskere inferenshastigheter og betydelig lavere API-kostnader, noe som adresserer forholdet mellom intelligens og kostnad som har hindret masseadopsjon av modeller som Claude Opus.
2. Innebygd agentisk resonnement
I motsetning til tidligere modeller som krevde "wrappere" eller kompleks prompt-ingeniørkunst for å fungere som agenter, har Garlic innebygde muligheter for verktøykall.
Modellen behandler API-kall, kodekjøring og databaseforespørsler som "førsteklasses" elementer i vokabularet sitt.
- Dyp integrasjon: Den bare "kan" ikke bare kode; den forstår miljøet til koden. Den kan etter sigende navigere i en filkatalog, redigere flere filer samtidig og kjøre egne enhetstester uten eksterne orkestreringsskript.
3. Enorme kontekst- og utdatavinduer
For å konkurrere med Geminis million-token-vindu, ryktes det at Garlic leveres med et kontekstvindu på 400 000 token. Selv om det er mindre enn Googles tilbud, er den viktigste differensiatoren "Perfekt gjenkalling" over det vinduet, ved å bruke en ny oppmerksomhetsmekanisme som forhindrer det vanlige "midt-i-konteksten"-tapet i 2025-modeller.
- 128k utdatagrense: Kanskje mer spennende for utviklere er den ryktede utvidelsen av utdatagrensen til 128 000 token. Dette vil gjøre det mulig for modellen å generere hele programvarebiblioteker, omfattende juridiske notater eller romaner i full lengde i én omgang, og dermed eliminere behovet for oppdeling.
4. Kraftig redusert hallusinasjon
Garlic bruker en post-trenings forsterkningsteknikk fokusert på "epistemisk ydmykhet"—modellen trenes grundig til å vite hva den ikke vet. Interne tester viser en hallusinasjonsrate som er betydelig lavere enn GPT-5.0, noe som gjør den egnet for bransjer med høy risiko som biomedisin og jus.
Hvordan står den seg mot konkurrenter som Gemini og Claude 4.5?
Suksessen til Garlic vil ikke bli målt i isolasjon, men i direkte sammenligning med de to gigantene som for øyeblikket dominerer arenaen: Googles Gemini 3 og Anthropics Claude Opus 4.5.
GPT-5.3 “Garlic” vs. Google Gemini 3
Kampen mellom skala og tetthet.
- Gemini 3: For øyeblikket "alt-i-ett"-modellen. Den dominerer i multimodal forståelse (video, lyd, innebygd bildegenerering) og har et praktisk talt uendelig kontekstvindu. Den er den beste modellen for "rotete" data fra virkeligheten.
- GPT-5.3 Garlic: Kan ikke konkurrere med Geminis rå multimodale bredde. I stedet angriper den Gemini på renhet i resonnement. For ren tekstgenerering, kodelogikk og kompleks instruksjonsfølging tar Garlic sikte på å være skarpere og mindre utsatt for "avslag" eller avsporing.
- Dommen: Hvis du trenger å analysere en 3-timers video, bruker du Gemini. Hvis du trenger å skrive backend for en bankapp, bruker du Garlic.
GPT-5.3 “Garlic” vs. Claude Opus 4.5
Kampen om utviklerens sjel.
- Claude Opus 4.5: Lansert sent i 2025. Denne modellen vant utviklere med sin "varme" og "vibe". Den er kjent for å skrive ren, menneskelesbar kode og følge systeminstruksjoner med militær presisjon. Den er imidlertid dyr og treg.
- GPT-5.3 Garlic: Dette er den direkte målskiven. Garlic har som mål å matche Opus 4.5s kodeferdigheter, men med 2x hastighet og 0,5x kostnad. Ved å bruke "høy-tetthets fortrening" ønsker OpenAI å tilby Opus-nivå intelligens på et Sonnet-budsjett.
- Dommen: "Code Red" ble spesifikt utløst av Opus 4.5s dominans i koding. Garlics suksess avhenger helt av om den kan overbevise utviklere om å bytte API-nøklene sine tilbake til OpenAI. Hvis Garlic kan kode like godt som Opus, men kjøre raskere, vil markedet skifte over natten.
Hovedpoeng
Tidlige interne bygg av Garlic overgår allerede Googles Gemini 3 og Anthropics Opus 4.5 i spesifikke, høyverdige domener:
- Kodeferdigheter: I interne "harde" benchmarker (utover standard HumanEval) har Garlic vist redusert tendens til å sette seg fast i "logikksløyfer" sammenlignet med GPT-4.5.
- Resonnementstetthet: Modellen krever færre token med "tenking" for å komme fram til riktige konklusjoner, i direkte kontrast til "chain-of-thought"-tyngden i o1 (Strawberry)-serien.
| Metric | GPT-5.3 (Garlic) | Google Gemini 3 | Claude 4.5 |
|---|---|---|---|
| Reasoning (GDP-Val) | 70.9% | 53.3% | 59.6% |
| Coding (HumanEval+) | 94.2% | 89.1% | 91.5% |
| Context Window | 400K Tokens | 2M Tokens | 200K Tokens |
| Inference Speed | Ultrarask | Moderat | Rask |
Konklusjon
“Garlic” er et aktivt og plausibelt rykte: et målrettet OpenAI-ingeniørspor som prioriterer resonnementstetthet, effektivitet og verktøy for virkelige behov. Fremveksten bør sees i lys av et akselererende kappløp mellom modellleverandører (OpenAI, Google, Anthropic) — der den strategiske gevinsten ikke bare er rå kapasitet, men brukbar kapasitet per dollar og per millisekund i latenstid.
Hvis du er interessert i denne nye modellen, følg CometAPI. Den oppdateres alltid med de nyeste og beste AI-modellene til en overkommelig pris.
Utviklere kan få tilgang til GPT-5.2 ,Gemini 3, Claude 4.5 via CometAPI nå. For å komme i gang, utforsk modellkapabilitetene til CometAPI i Playground og se API guide for detaljerte instruksjoner. Før du får tilgang, må du sørge for at du er logget inn på CometAPI og har hentet API-nøkkelen. CometAPI tilbyr en pris langt lavere enn den offisielle prisen for å hjelpe deg å integrere.
Klar til å komme i gang?→ Registrer deg for CometAPI i dag!
Hvis du vil ha flere tips, guider og nyheter om AI, følg oss på VK, X og Discord!
