O

gpt-realtime-1.5

Inndata:$3.2/M
Utdata:$12.8/M
Kontekst:32,000
Maks utdata:4,096
Den beste talemodellen for lyd inn, lyd ut.
Ny
Kommersiell bruk

Tekniske spesifikasjoner for gpt-realtime-1.5

Elementgpt-realtime-1.5 (offentlig posisjonering)
ModellslektGPT Realtime 1.5 (stemmeoptimalisert variant)
Primær modalitetTale-til-tale (S2S)
InndatatyperLyd (strømming), tekst
UtdatatyperLyd (strømming), tekst, strukturerte verktøykall
APIRealtime API (WebRTC / vedvarende strømmesesjoner)
LatensprofilOptimalisert for lav latens, direkte samtaleinteraksjon
SesjonsmodellTilstandsbevarende strømmesesjoner
VerktøybrukFunksjonskall og verktøyintegrasjoner støttes
MålbrukstilfellerLive stemmeagenter, assistenter, interaktive systemer

Merk: Eksakte token-grenser og størrelser på kontekstvindu er ikke tydelig dokumentert i offentlige sammendrag; modellen er posisjonert for sanntidsrespons heller enn ekstremt lange kontektsøkter.


Hva er gpt-realtime-1.5?

gpt-realtime-1.5 er en lav-latens, tale-til-tale-optimalisert modell for live samtalesystemer. I motsetning til tradisjonelle forespørsel–svar-modeller opererer den gjennom vedvarende strømmesesjoner, som muliggjør naturlig turtaking, avbruddshåndtering og dynamisk stemmeinteraksjon.

Den er formålet bygget for applikasjoner der hastighet i samtaleflyten er viktigere enn maksimal kontekstlengde.


Hovedfunksjoner

  1. Ekte tale-til-tale-interaksjon — Godtar live lydinndata og strømmer talte svar i sanntid.
  2. Lav-latens-arkitektur — Designet for under-sekunders respons i stemmeagenter.
  3. Strømming-først-design — Fungerer via vedvarende økter (WebRTC eller strømmeprotokoller).
  4. Naturlig turtaking — Støtter avbruddshåndtering og dynamisk samtaleflyt.
  5. Støtte for verktøykall — Kan utløse strukturerte funksjonskall under en sanntidsøkt.
  6. Produksjonsklart grunnlag for stemmeagenter — Bygget spesielt for interaktive assistenter, kiosker og innebygde enheter.

Benchmark og ytelsesposisjonering

OpenAI posisjonerer gpt-realtime-1.5 som en videreutvikling av tidligere sanntidsmodeller med forbedret instruksjonsfølging, stabilitet under utvidede stemmesesjoner og mer naturlig prosodi sammenlignet med tidligere utgivelser.

I motsetning til kodefokuserte modeller (f.eks. Codex-varianter) måles ytelsen mer på samtalelatens, stemmenaturlighet og sesjonsstabilitet enn på toppliste-stil benchmarker.


gpt-realtime-1.5 vs relaterte modeller

Funksjongpt-realtime-1.5gpt-audio-1.5
Primært målLive stemmeinteraksjonLydaktivert chat-arbeidsflyt
LatensOptimalisert for minimal forsinkelseBalansert kvalitet/hastighet
SesjonstypeVedvarende strømmesesjonStandard Chat Completions-flyt
KontekststørrelseOptimalisert for responsivitetStørre kontekststøtte
Beste brukstilfelleSanntids stemmeagenterSamtaleassistenter med lyd

Når bør du velge hver

  • Velg gpt-realtime-1.5 for callsentre, kiosker, AI-resepsjonister eller live innebygde assistenter.
  • Velg gpt-audio-1.5 for stemmeaktiverte chat-apper som krever lengre samtaleminne eller multimodale arbeidsflyter.

Representative brukstilfeller

  • AI-agenter for callsentre
  • Assistenter for smarte enheter
  • Interaktive kiosker
  • Live veiledningssystemer
  • Sanntids språktreningsverktøy
  • Stemmestyrte applikasjoner
  • Slik får du tilgang til GPT realtime 1.5 API

Trinn 1: Registrer deg for API-nøkkel

Logg inn på cometapi.com. Hvis du ikke er bruker ennå, registrer deg først. Logg inn på din CometAPI console. Hent tilgangslegitimasjonen API-nøkkel for grensesnittet. Klikk “Add Token” ved API token i personlig senter, hent token-nøkkelen: sk-xxxxx og send inn.

cometapi-key

Trinn 2: Send forespørsler til GPT realtime 1.5 API

Velg gpt-realtime-1.5-endepunktet for å sende API-forespørselen og sett forespørselskroppen. Forespørselsmetoden og forespørselskroppen finnes i API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for din bekvemmelighet. Bytt ut <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din. base url er Chat Completions

Sett inn spørsmålet eller forespørselen din i content-feltet—det er dette modellen vil svare på. Behandle API-responsen for å hente det genererte svaret.

Trinn 3: Hent og verifiser resultater

Behandle API-responsen for å hente det genererte svaret. Etter behandling svarer API-et med oppgavestatus og utdata.

FAQ

Flere modeller