ModellerStøtteBedriftBlogg
500+ AI-modell API, Alt I Én API. Bare I CometAPI
Modeller API
Utvikler
HurtigstartDokumentasjonAPI Dashbord
Ressurser
AI-modellerBloggBedriftEndringsloggOm oss
2025 CometAPI. Alle rettigheter reservert.PersonvernerklæringTjenestevilkår
Home/Models/OpenAI/GPT 5.1 Codex Max
O

GPT 5.1 Codex Max

Inndata:$1/M
Utdata:$8/M
Kontekst:400K
Maks utdata:128K
GPT-5.1-Codex-Max er OpenAIs spesialbygd, agentdrevet kodemodell i GPT-5.1-familien, optimalisert for å utføre langvarige arbeidsflyter for programvareutvikling (refaktoreringer, flere timer lange agentløkker, terminalautomatisering, testkjøringer og kodegjennomgang) med høyere pålitelighet og token-effektivitet enn sine forgjengere.
Ny
Kommersiell bruk
Playground
Oversikt
Funksjoner
Priser
API

Hva er GPT-5.1-Codex-Max?

GPT-5.1-Codex-Max er en modell i Codex-familien som er finjustert og spesialbygget for agent-baserte kodearbeidsflyter — dvs. autonome, flerstegs ingeniøroppgaver som refaktorering på repo-skala, lange feilsøkingsøkter, fler-timers agentløkker, kodegjennomgang og programmessig verktøybruk. Den er ment for utviklerarbeidsflyter der modellen må:

  • Holde tilstand på tvers av mange endringer og interaksjoner
  • Betjene verktøy og terminaler (kjøre tester, kompilere, installere, kjøre git-kommandoer) som del av en automatisert kjede
  • Produsere patcher, kjøre tester og levere etterprøvbare logger og siteringer for utdata

Hovedfunksjoner

  • Komprimering og kontekst med flere vinduer: Opplært til å komprimere historikk og sammenhengende operere på tvers av flere kontekstvinduer, som muliggjør kontinuitet på prosjektskala.
  • Agent-basert verktøybruk (terminal + verktøy): Bedre evne til å kjøre terminalsekvenser, installere/bygge/teste og reagere på programutdata.
  • Høyere token-effektivitet: Designet for å bruke tokens mer effektivt for små oppgaver, samtidig som den benytter lengre resonneringskjøringer for komplekse oppgaver.
  • Refaktorering og store endringer: Bedre på tverrfil-refaktoreringer, migreringer og patcher på repository-nivå (OpenAIs interne evalueringer).
  • Moduser for resonneringsinnsats: Nye nivåer for lengre, beregningstunge resonneringer (f.eks. Extra High / xhigh for jobber som ikke er latensfølsomme).

Tekniske kapabiliteter (hva den er god på)

  • Langsiktige refaktoreringer og iterative løkker: kan opprettholde fler-timers (OpenAI rapporterer >24 t i interne demoer) refaktoreringer og feilsøkingsøkter på prosjektskala ved å iterere, kjøre tester, oppsummere feil og oppdatere kode.
  • Feilretting i virkelige prosjekter: sterk ytelse på patching-benchmarker fra ekte repoer (SWE-Bench Verified: OpenAI rapporterer 77.9% for Codex-Max i xhigh/extra-effort-innstillinger).
  • Terminal-/verktøyferdigheter: leser logger, kaller kompilatorer/tester, redigerer filer, oppretter PR-er — fungerer altså som en terminal-native agent med eksplisitte, inspiserbare verktøykall.
  • Godtar input: standard tekstprompter pluss kodebiter, repository-snapshots (via verktøy/IDE-integrasjoner), skjermbilder/vinduer i Codex-flater der vision er aktivert, og verktøykallforespørsler (f.eks. kjør npm test, åpne fil, opprett PR).
  • Produserer output: kodepatcher (diff-er eller PR-er), testrapporter, trinnvise kjørselslogger, forklaringer i naturlig språk og annoterte kodegjennomgangskommentarer. Når den brukes som agent, kan den avgi strukturerte verktøykall og oppfølgingshandlinger.

Benchmark-ytelse (utvalgte resultater og kontekst)

  • SWE-bench Verified (n=500) — GPT-5.1-Codex (high): 73.7%; GPT-5.1-Codex-Max (xhigh): 77.9%. Denne metrikken evaluerer ingeniøroppgaver hentet fra GitHub/OSS-issues.
  • SWE-Lancer IC SWE: GPT-5.1-Codex: 66.3% → GPT-5.1-Codex-Max: 79.9% (OpenAI rapporterte forbedringer på enkelte topplister).
  • Terminal-Bench 2.0: GPT-5.1-Codex: 52.8% → GPT-5.1-Codex-Max: 58.1% (forbedringer på interaktive evalueringer av terminal-/verktøybruk).

Begrensninger og feilmodi

  1. Dobbeltbruk-/cybersikkerhetsrisiko: Forbedret evne til å operere terminaler og kjøre verktøy medfører dobbeltbruksbekymringer (modellen kan bistå både i defensiv og offensiv sikkerhet); OpenAI understreker trinnvis tilgangskontroll og overvåking.
  2. Ikke perfekt deterministisk eller korrekt: Selv med sterkere ingeniørytelser kan modellen foreslå feilaktige patcher eller overse subtile kodesemantikker (falske positive/negative i bugdeteksjon), så menneskelig gjennomgang og CI-testing er fortsatt essensielt.
  3. Kostnads- og latensavveiinger: Høye innsatsmoduser (xhigh) bruker mer compute/tid; lange, fler-timers agentløkker bruker kreditter eller budsjett. Planlegg for kostnader og takgrenser. ([OpenAI开发者][2])
  4. Kontekstsikringer vs. effektiv kontinuitet: Komprimering gir prosjektkontinuitet, men eksakte garantier for hvilke tokens som bevares og hvordan komprimering påvirker sjeldne hjørnetilfeller, erstatter ikke versjonerte repo-snapshots og reproduserbare piper. Bruk komprimering som en assistent, ikke som eneste sannhetskilde.

Sammenligning vs Claude Opus 4.5 vs Gemini 3 Pro (overordnet)

  • Anthropic — Claude Opus 4.5: Community- og pressedrevne benchmarker plasserer generelt Opus 4.5 litt foran Codex-Max på rå korrekthet i feilretting (SWE-Bench), med styrker innen vitenskapelig orkestrering og svært konsise, token-effektive utdata. Opus er ofte priset høyere per token, men kan være mer token-effektiv i praksis. Codex-Max sin styrke er langsiktig komprimering, integrasjon med terminalverktøy og kostnadseffektivitet for lange agentkjøringer.
  • Google Gemini-familien (3 Pro etc.): Gemini-varianter er fortsatt sterke på multimodale og generelle resonneringsbenchmarker; på kodefeltet varierer resultatene etter testoppsett. Codex-Max er spesialbygd for agent-baserte kodeoppgaver og integreres med DevTool-arbeidsflyter på måter som generalistmodeller ikke gjør som standard.

Slik får du tilgang til og bruker GPT-5.1 Codex Max API

Trinn 1: Registrer deg for API-nøkkel

Logg inn på cometapi.com. Hvis du ikke er bruker ennå, registrer deg først. Logg inn på din CometAPI console. Hent tilgangslegitimasjonen API-nøkkel for grensesnittet. Klikk “Add Token” ved API token i personlige senter, hent token-nøkkelen: sk-xxxxx og send inn.

Trinn 2: Send forespørsler til GPT-5.1-Codex-Max API

Velg endepunktet “ gpt-5.1-codex-max” for å sende API-forespørselen og angi forespørselskroppen. Forespørselsmetode og -kropp finner du i API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for din bekvemmelighet. Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din. Utviklere kaller disse via Responses API / Chat endepunktene.

Sett inn spørsmålet eller forespørselen din i content-feltet — det er dette modellen vil svare på. Prosesser API-responsen for å hente det genererte svaret.

Trinn 3: Hent og verifiser resultater

Prosesser API-responsen for å hente det genererte svaret. Etter prosessering svarer API-et med oppgavestatus og utdata.

Funksjoner for GPT 5.1 Codex Max

Utforsk nøkkelfunksjonene til GPT 5.1 Codex Max, designet for å forbedre ytelse og brukervennlighet. Oppdag hvordan disse mulighetene kan være til nytte for prosjektene dine og forbedre brukeropplevelsen.

Priser for GPT 5.1 Codex Max

Utforsk konkurransedyktige priser for GPT 5.1 Codex Max, designet for å passe ulike budsjetter og bruksbehov. Våre fleksible planer sikrer at du bare betaler for det du bruker, noe som gjør det enkelt å skalere etter hvert som kravene dine vokser. Oppdag hvordan GPT 5.1 Codex Max kan forbedre prosjektene dine samtidig som kostnadene holdes håndterbare.
Komet-pris (USD / M Tokens)Offisiell pris (USD / M Tokens)Rabatt
Inndata:$1/M
Utdata:$8/M
Inndata:$1.25/M
Utdata:$10/M
-20%

Eksempelkode og API for GPT 5.1 Codex Max

GPT-5.1-Codex-Max er OpenAIs spesialbygde, agentbaserte kodemodell i GPT-5.1-familien, optimalisert for å utføre langvarige programvareutviklingsarbeidsflyter (refaktoreringer, flere timer lange agentløkker, terminalautomatisering, testkjøringer og kodegjennomgang) med høyere pålitelighet og tokeneffektivitet enn forgjengerne.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1-codex-max", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5.1-codex-max", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5.1-codex-max",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5.1-codex-max",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

Flere modeller