ModellerStøtteBedriftBlogg
500+ AI-modell API, Alt I Én API. Bare I CometAPI
Modeller API
Utvikler
HurtigstartDokumentasjonAPI Dashbord
Ressurser
AI-modellerBloggBedriftEndringsloggOm oss
2025 CometAPI. Alle rettigheter reservert.PersonvernerklæringTjenestevilkår
Home/Models/OpenAI/O3 Pro
O

O3 Pro

Inndata:$16/M
Utdata:$64/M
Kontekst:200K
Maks utdata:100K
OpenAI o3‑pro er en “pro”-variant av o3‑resonneringsmodellen, utviklet for å tenke lenger og levere de mest pålitelige svarene ved å bruke privat chain‑of‑thought‑forsterkningslæring og sette nye state‑of‑the‑art‑benchmarks på tvers av områder som vitenskap, programmering og forretningsliv—samtidig som den autonomt integrerer verktøy som nettsøk, filanalyse, Python‑kjøring og visuell resonnering i API‑et.
Ny
Kommersiell bruk
Oversikt
Funksjoner
Priser
API
Versjoner

Grunnleggende informasjon og funksjoner

  • Modellklasse: o3-Pro er en del av OpenAIs «reasoning models», utviklet for å tenke trinn for trinn i stedet for å generere umiddelbare svar.
  • Tilgjengelighet: Tilgjengelig via ChatGPT Pro-/Team-grensesnitt og OpenAI-utvikler-API-en fra og med 10. juni 2025.
  • Tilgangsnivåer: Erstatter den tidligere o1-Pro-utgaven; Enterprise- og Edu-brukere tas om bord i uken etter lansering.

Tekniske detaljer

  • Arkitektur: Bygger på o3-ryggraden med en forbedret privat tankekjede, som muliggjør flerstegs resonnering ved inferens.
  • Tokenisering: Støtter samme tokenoppsett som forgjengerne—1 million inndatatoken ≈ 750 000 ord.
  • Utvidede funksjoner: Inkluderer nettsøk, kjøring av Python-kode, filanalyse og visuell resonnering; bildegenerering støttes fortsatt ikke i denne utgivelsen.

Ytelse i referansetester

  • Matematikk og naturvitenskap: Overgikk Google Gemini 2.5 Pro i AIME 2024-konkurransen, og demonstrerte overlegne problemløsningsevner i avansert matematikk.
  • Naturvitenskap på ph.d.-nivå: Overgikk Anthropic’s Claude 4 Opus på GPQA Diamond-referansetesten, noe som indikerer solid ekspertise innen vitenskapelige fagområder.
  • Bruk i virksomheter: Interne tester rapporterer gjennomgående bedre resultater enn forgjengermodeller på oppgaver innen koding, STEM og forretningsresonnering.

Tekniske indikatorer

  • Latens: Svartidene er høyere enn for o1-Pro—noe som gjenspeiler de dypere resonneringskjedene—med et gjennomsnitt på 1,5× den tidligere latensen.
  • Gjennomstrømning: Vedvarende token-genereringsgjennomstrømning på opptil 10 token/sek i burst-modus.

Med sine forbedrede resonneringskjeder, utvidede funksjonssett og ledende referansetestytelse representerer o3-Pro et betydelig steg fremover innen pålitelig AI med høy presisjon.

Slik får du tilgang til o3-pro API

Trinn 1: Registrer deg for API-nøkkel

Logg inn på cometapi.com. Hvis du ikke er bruker hos oss ennå, må du registrere deg først. Logg inn på CometAPI-konsollen din. Hent tilgangslegitimasjonen API-nøkkel for grensesnittet. Klikk på «Add Token» under API-token i det personlige senteret, hent token-nøkkelen: sk-xxxxx, og send inn.

Trinn 2: Send forespørsler til o3-pro API

Velg endepunktet «\**o3-pro\**» for å sende API-forespørselen og angi forespørselsteksten. Forespørselsmetoden og forespørselsteksten hentes fra API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for enkelhets skyld. Erstatt <YOUR_API_KEY> med den faktiske CometAPI-nøkkelen fra kontoen din.

Sett inn spørsmålet eller forespørselen din i content-feltet—dette er det modellen vil svare på. Behandle API-svaret for å hente det genererte svaret.

Trinn 3: Hent og verifiser resultater

Behandle API-svaret for å hente det genererte svaret. Etter behandling svarer API-et med oppgavestatus og utdata.

Funksjoner for O3 Pro

Utforsk nøkkelfunksjonene til O3 Pro, designet for å forbedre ytelse og brukervennlighet. Oppdag hvordan disse mulighetene kan være til nytte for prosjektene dine og forbedre brukeropplevelsen.

Priser for O3 Pro

Utforsk konkurransedyktige priser for O3 Pro, designet for å passe ulike budsjetter og bruksbehov. Våre fleksible planer sikrer at du bare betaler for det du bruker, noe som gjør det enkelt å skalere etter hvert som kravene dine vokser. Oppdag hvordan O3 Pro kan forbedre prosjektene dine samtidig som kostnadene holdes håndterbare.
Komet-pris (USD / M Tokens)Offisiell pris (USD / M Tokens)Rabatt
Inndata:$16/M
Utdata:$64/M
Inndata:$20/M
Utdata:$80/M
-20%

Eksempelkode og API for O3 Pro

o3-Pro API er et RESTful ChatCompletion-endepunkt som gjør det mulig for utviklere å ta i bruk OpenAIs avanserte muligheter for chain-of-thought-resonnering, kodekjøring og dataanalyse via konfigurerbare parametere (model="o3-pro", messages, temperature, max_tokens, streaming, osv.) for sømløs integrasjon i komplekse arbeidsflyter.

Versjoner av O3 Pro

Grunnen til at O3 Pro har flere øyeblikksbilder kan inkludere potensielle faktorer som variasjoner i utdata etter oppdateringer som krever eldre øyeblikksbilder for konsistens, å gi utviklere en overgangsperiode for tilpasning og migrering, og ulike øyeblikksbilder som tilsvarer globale eller regionale endepunkter for å optimalisere brukeropplevelsen. For detaljerte forskjeller mellom versjoner, vennligst se den offisielle dokumentasjonen.
version
o3-pro-2025-06-10
o3-pro

Flere modeller

O

o4-mini-deep-research

O

o4-mini-deep-research

Inndata:$1.6/M
Utdata:$6.4/M
O4-Mini-Deep-Research er OpenAIs nyeste agentdrevne resonneringsmodell, som kombinerer den lette o4-mini-backbone med det avanserte Deep Research-rammeverket. Utformet for å levere rask og kostnadseffektiv dyptgående informasjonssyntese, gjør den det mulig for utviklere og forskere å utføre automatiserte nettsøk, dataanalyse og chain-of-thought-resonnering med ett enkelt API-kall.
L

Llama-4-Scout

L

Llama-4-Scout

Inndata:$0.216/M
Utdata:$1.152/M
Llama-4-Scout er en språkmodell for generelle formål for interaksjon i assistentstil og automatisering. Den håndterer å følge instruksjoner, resonnering, oppsummering og transformasjonsoppgaver, og kan støtte enkel koderelatert assistanse. Typiske bruksområder omfatter samtaleorkestrering, kunnskapsforsterket QA og generering av strukturert innhold. Tekniske høydepunkter inkluderer kompatibilitet med mønstre for verktøy-/funksjonskall, gjenfinning-forsterket prompting og skjemabegrensede utdata for integrasjon i produktarbeidsflyter.
L

Llama-4-Maverick

L

Llama-4-Maverick

Inndata:$0.48/M
Utdata:$1.44/M
Llama-4-Maverick er en generell språkmodell for tekstforståelse og -generering. Den støtter samtalebasert QA, oppsummering, strukturert utarbeidelse og grunnleggende kodehjelp, med muligheter for strukturerte utdata. Vanlige bruksområder omfatter produktassistenter, front-end-grensesnitt for kunnskapsinnhenting og arbeidsflytautomatisering som krever konsekvent formatering. Tekniske detaljer som antall parametere, kontekstvindu, modalitet og verktøy- eller funksjonskall varierer mellom distribusjoner; integrer i samsvar med implementasjonens dokumenterte kapabiliteter.
M

Kimi-K2

M

Kimi-K2

Inndata:$0.48/M
Utdata:$1.92/M
- **kimi-k2-250905**: Moonshot AI's Kimi K2-serie 0905-versjon, støtter ultralang kontekst (opptil 256k tokens, frontend- og Tool-kall). - 🧠 Forbedret Tool Calling: 100% nøyaktighet, sømløs integrasjon, egnet for komplekse oppgaver og integrasjonsoptimalisering. - ⚡️ Mer effektiv ytelse: TPS opptil 60-100 (standard API), opptil 600-100 i Turbo-modus, som gir raskere respons og forbedret Inference-kapasitet, kunnskapsgrense inntil midten av 2025.
X

Grok 3 Reasoner

X

Grok 3 Reasoner

Inndata:$2.4/M
Utdata:$12/M
Grok-3-resonneringsmodell, med trinnvis resonnering, Elon Musks konkurrent til R1. Denne modellen støtter en maksimal kontekstlengde på 100,000 tokens.
X

Grok 3 Mini

X

Grok 3 Mini

Inndata:$0.24/M
Utdata:$0.4/M
En lettvektsmodell som tenker før den svarer. Rask, smart og ideell for logikkbaserte oppgaver som ikke krever dyp domenekunnskap. Ufiltrerte tankeprosesser er tilgjengelige. Denne modellen støtter en maksimal kontekstlengde på 100,000 tokens.

Relaterte blogger

Nye Veo3.1: mer konsistens, varierte resultater og rikere
Jan 14, 2026
veo-3-1

Nye Veo3.1: mer konsistens, varierte resultater og rikere

Googles Veo 3.1 ble oppdatert i januar og introduserer målrettede forbedringer som bringer bilde-til-video-arbeidsflyter nærmere produksjonskvalitet. Utgivelsen legger vekt på høy gjengivelsestrohet i bilde-til-video, bedre tidsmessig og karaktermessig konsistens, innebygde vertikale utdata for mobile plattformer, samt høyere oppløsning gjennom forbedret 1080p-kvalitet og en vei for oppskalering til 4K. For innholdsskapere og utviklere som har måttet omgå «kutt-deretter-rediger»-arbeidsflyten for vertikale formater på sosiale plattformer, lover Veo 3.1s innebygde 9:16-utdata og forbedret oppskalering å redusere friksjon og levere mer finslipte, plattformklare klipp.