O

GPT-5.2 Pro

Kontekst:400,000
Inndata:$12.00/M
Utdata:$96.00/M
gpt-5.2-pro er det kraftigste, produksjonsrettede medlemmet i OpenAIs GPT-5.2-familie, tilgjengelig via Responses API for arbeidslaster som krever maksimal presisjon, flertrinnsresonnering, omfattende verktøybruk og de største kontekst- og gjennomstrømmingsbudsjettene OpenAI tilbyr.
O

GPT-5.2 Chat

Kontekst:128,000
Inndata:$1.40/M
Utdata:$11.20/M
gpt-5.2-chat-latest er det chat-optimaliserte snapshotet av OpenAIs GPT-5.2-familie (omtalt i ChatGPT som GPT-5.2 Instant). Det er modellen for interaktive/chat-bruksområder som trenger en kombinasjon av hastighet, håndtering av lange kontekster, multimodale inndata og pålitelig samtaleatferd.
O

GPT-5.2

Kontekst:400,000
Inndata:$1.40/M
Utdata:$11.20/M
GPT-5.2 er en modellserie i flere varianter (Instant, Thinking, Pro), utviklet for bedre forståelse av lange kontekster, sterkere koding og verktøybruk, og vesentlig høyere ytelse på profesjonelle “kunnskapsarbeid”-benchmarker.
O

GPT-5.1 Chat

Kontekst:400.0k
Inndata:$1.00/M
Utdata:$8.00/M
GPT-5.1 Chat er en instruksjonsfinjustert samtalebasert språkmodell for generell chat, resonnering og skriving. Den støtter fleromgangsdialoger, oppsummering, utarbeidelse av utkast, QA for kunnskapsbaser og lettvektskodeassistanse for app-interne assistenter, kundestøtteautomatisering og arbeidsflyt-kopiloter. Tekniske høydepunkter omfatter chat-optimalisert tilpasning, kontrollerbare og strukturerte utdata, samt integrasjonsstier for verktøykall og gjenfinningsarbeidsflyter når tilgjengelig.
O

GPT-5.1

Inndata:$1.00/M
Utdata:$8.00/M
GPT-5.1 er en generell, instruksjonsfinjustert språkmodell med fokus på tekstgenerering og resonnering på tvers av produktarbeidsflyter. Den støtter dialog i flere omganger, strukturert formatering av utdata og kodeorienterte oppgaver som utforming, refaktorering og forklaring. Typiske bruksområder inkluderer chatassistenter, gjenfinning-forsterket QA, datatransformasjon og automatisering i agent-stil med verktøy eller API-er når det støttes. Tekniske høydepunkter inkluderer tekstsentrisk modalitet, evne til å følge instruksjoner, utdata i JSON-stil og kompatibilitet med funksjonskall i vanlige orkestreringsrammeverk.
O

GPT-5 nano

Kontekst:400K
Inndata:$0.04/M
Utdata:$0.32/M
GPT-5 Nano er en kunstig intelligensmodell levert av OpenAI.
O

GPT-5 mini

Kontekst:400K
Inndata:$0.20/M
Utdata:$1.60/M
GPT-5 mini er OpenAIs kostnads- og latensoptimaliserte medlem av GPT-5-familien, utformet for å levere mye av GPT-5s multimodale styrker og evne til å følge instruksjoner til vesentlig lavere kostnad for storskala produksjonsbruk. Den retter seg mot miljøer der gjennomstrømning, forutsigbar prising per token og raske responser er de primære begrensningene, samtidig som den fortsatt tilbyr sterke generelle kapabiliteter.
O

GPT 5 Chat

Kontekst:400K
Inndata:$1.00/M
Utdata:$8.00/M
GPT-5 Chat (nyeste) er en kunstig intelligensmodell levert av OpenAI.
O

GPT-5

Kontekst:400K
Inndata:$1.00/M
Utdata:$8.00/M
GPT-5 er OpenAIs mest kraftfulle programmeringsmodell til nå. Den viser betydelige forbedringer i kompleks frontend-generering og feilsøking i store kodebaser. Den kan forvandle ideer til virkelighet med intuitive og estetisk tiltalende resultater, og skape vakre og responsive nettsteder, applikasjoner og spill med en finstemt sans for estetikk – alt fra én enkelt prompt. Tidlige testere har også merket seg designvalgene, med en dypere forståelse av elementer som avstand, typografi og luft.
O

GPT-4.1 nano

Kontekst:1.0M
Inndata:$0.08/M
Utdata:$0.32/M
GPT-4.1 nano er en modell for kunstig intelligens levert av OpenAI. gpt-4.1-nano: Har et større kontekstvindu—støtter opptil 1 million konteksttokens og kan utnytte den konteksten bedre gjennom forbedret langkontekstforståelse. Har en oppdatert kunnskapsavgrensning til juni 2024. Denne modellen støtter en maksimal kontekstlengde på 1,047,576 tokens.
O

GPT-4.1

Kontekst:1.0M
Inndata:$1.60/M
Utdata:$6.40/M
GPT-4.1 er en kunstig intelligens-modell levert av OpenAI. gpt-4.1-nano: Har et større kontekstvindu—støtter opptil 1 million konteksttokens og kan utnytte den konteksten bedre gjennom forbedret forståelse av lange kontekster. Har en oppdatert kunnskapsgrense per juni 2024. Denne modellen støtter en maksimal kontekstlengde på 1,047,576 tokens.
O

GPT-4o mini

Inndata:$0.12/M
Utdata:$0.48/M
GPT-4o mini er en kunstig intelligensmodell levert av OpenAI.
O

Whisper-1

Inndata:$24.00/M
Utdata:$24.00/M
Tale til tekst, lage oversettelser
O

TTS

Inndata:$12.00/M
Utdata:$12.00/M
OpenAI Tekst-til-tale
O

Sora 2 Pro

Per sekund:$0.24
Sora 2 Pro er vår mest avanserte og kraftigste mediegenereringsmodell, som kan generere videoer med synkronisert lyd. Den kan skape detaljerte, dynamiske videoklipp fra naturlig språk eller bilder.
O

Sora 2

Per sekund:$0.08
Superkraftig videogenereringsmodell med lydeffekter som støtter chatformat.
O

GPT Image 1 mini

Inndata:$2.00/M
Utdata:$6.40/M
Kostnadsoptimalisert versjon av GPT Image 1. Det er en ekte multimodal språkmodell som mottar både tekst- og bildeinput og genererer bildeutdata.
O

GPT 4.1 mini

Kontekst:1.0M
Inndata:$0.32/M
Utdata:$1.28/M
GPT-4.1 mini er en kunstig intelligens-modell levert av OpenAI. gpt-4.1-mini: Et betydelig sprang i ytelsen til små modeller, som til og med slår GPT-4o i mange benchmarktester. Den matcher eller overgår GPT-4o i intelligensevaluering, samtidig som den reduserer latens med nær halvparten og kostnadene med 83 %. Denne modellen støtter en maksimal kontekstlengde på 1,047,576 tokens.
O

o4-mini-deep-research

Kontekst:200K
Inndata:$1.60/M
Utdata:$6.40/M
O4-Mini-Deep-Research er OpenAIs nyeste agentdrevne resonneringsmodell, som kombinerer den lette o4-mini-backbone med det avanserte Deep Research-rammeverket. Utformet for å levere rask og kostnadseffektiv dyptgående informasjonssyntese, gjør den det mulig for utviklere og forskere å utføre automatiserte nettsøk, dataanalyse og chain-of-thought-resonnering med ett enkelt API-kall.
O

o4-mini

Inndata:$0.88/M
Utdata:$3.52/M
O4-mini er en modell for kunstig intelligens fra OpenAI.
O

O3 Pro

Kontekst:200K
Inndata:$16.00/M
Utdata:$64.00/M
OpenAI o3‑pro er en “pro”-variant av o3‑resonneringsmodellen, utviklet for å tenke lenger og levere de mest pålitelige svarene ved å bruke privat chain‑of‑thought‑forsterkningslæring og sette nye state‑of‑the‑art‑benchmarks på tvers av områder som vitenskap, programmering og forretningsliv—samtidig som den autonomt integrerer verktøy som nettsøk, filanalyse, Python‑kjøring og visuell resonnering i API‑et.
O

o3-mini

Inndata:$0.88/M
Utdata:$3.52/M
O3-mini er en kunstig intelligensmodell levert av OpenAI.
O

o3-deep-research

Inndata:$8.00/M
Utdata:$32.00/M
En nettverksbasert agent for dyptgående forskning basert på O3-modellen, som støtter flertrinns inferens og rapporter for siteringsanalyse.
O

o3

Inndata:$1.60/M
Utdata:$6.40/M
O3 er en modell for kunstig intelligens levert av OpenAI.
O

GPT-4o mini Audio

Inndata:$0.12/M
Utdata:$0.48/M
GPT-4o mini Audio er en multimodal modell for tale- og tekstinteraksjon. Den utfører talegjenkjenning, oversettelse og tekst-til-tale, følger instruksjoner, kan kalle verktøy for strukturerte handlinger og gi strømmende svar. Typiske bruksområder inkluderer stemmeassistenter i sanntid, direkteteksting og oversettelse, samtalesammendrag og stemmestyrte applikasjoner. Tekniske høydepunkter inkluderer lydinngang og -utgang, strømmende svar, funksjonskall og strukturert JSON-utdata.
O

codex-mini-latest

Inndata:$1.20/M
Utdata:$4.80/M
Codex Mini er en modell for kunstig intelligens tilbudt av OpenAI. Det er OpenAIs nyeste prestasjon innen kodegenerering, en lettvektsmodell som er spesielt optimalisert for Codex-kommandolinjegrensesnittet (CLI). Som en finjustert versjon av o4-mini arver denne modellen grunnmodellens høye effektivitet og responshastighet, samtidig som den er spesielt optimalisert for kodeforståelse og -generering.
O

GPT-4o mini TTS

Inndata:$9.60/M
Utdata:$38.40/M
GPT-4o mini TTS er en nevral tekst-til-tale-modell utviklet for naturlig, lav-latenstid talegenerering i brukervendte applikasjoner. Den konverterer tekst til naturlig klingende tale med valgbare stemmer, utdata i flere formater og strømmende syntese for responsive opplevelser. Typiske bruksområder omfatter stemmeassistenter, IVR- og kontaktflyter, opplesning av produktinnhold og narrasjon i media. Tekniske høydepunkter inkluderer API-basert strømming og eksport til vanlige lydformater som MP3 og WAV.
O

GPT-4o Realtime

Inndata:$60.00/M
Utdata:$240.00/M
Realtime API lar utviklere bygge multimodale opplevelser med lav latens, inkludert tale-til-tale-funksjonalitet. Tekst og lyd som behandles av Realtime API prises separat. Denne modellen støtter en maksimal kontekstlengde på 128,000 tokens.
O

GPT-4o Search

Inndata:$60.00/M
Utdata:$60.00/M
GPT-4o Search er en multimodal modell basert på GPT-4o, konfigurert for søkforsterket resonnement og kildeforankrede, oppdaterte svar. Den følger instruksjoner og bruker verktøy for nettsøk til å hente, vurdere og syntetisere ekstern informasjon, med kildekontekst der det er tilgjengelig. Typiske bruksområder omfatter forskningsstøtte, faktasjekk, overvåking av nyheter og trender, samt å besvare tidskritiske spørsmål. Tekniske høydepunkter inkluderer verktøy-/funksjonskall for nettlesing og innhenting, håndtering av lange kontekster og strukturerte utdata som egner seg for kildehenvisninger og lenker.
O

ChatGPT-4o

Inndata:$4.00/M
Utdata:$12.00/M
Basert på den nyeste iterasjonen av GPT-4o, en multimodal stor språkmodell (LLM) som støtter inn- og utdata for tekst, bilde, lyd og video.
O

tts-1-hd-1106

Inndata:$24.00/M
Utdata:$24.00/M
O

tts-1-hd

Inndata:$24.00/M
Utdata:$24.00/M
O

tts-1-1106

Inndata:$12.00/M
Utdata:$12.00/M
O

tts-1

Inndata:$12.00/M
Utdata:$12.00/M
O

text-embedding-ada-002

Inndata:$0.08/M
Utdata:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

Inndata:$0.02/M
Utdata:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

Inndata:$0.10/M
Utdata:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

Per forespørsel:$0.00
O

omni-moderation-2024-09-26

Per forespørsel:$0.00
O

o1-pro-all

Inndata:$120.00/M
Utdata:$480.00/M
O

o1-pro-2025-03-19

Inndata:$120.00/M
Utdata:$480.00/M
O

o1-pro

Inndata:$120.00/M
Utdata:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

Per forespørsel:$0.16
O

o1-preview-2024-09-12

Inndata:$12.00/M
Utdata:$48.00/M
O

o1-preview

Inndata:$12.00/M
Utdata:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

Per forespørsel:$0.08
O

o1-mini-2024-09-12

Inndata:$0.88/M
Utdata:$3.52/M
O

o1-mini

Inndata:$0.88/M
Utdata:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

Per forespørsel:$0.16
O

o1-2024-12-17

Inndata:$12.00/M
Utdata:$48.00/M
O

o1

Inndata:$12.00/M
Utdata:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

Inndata:$0.48/M
Utdata:$0.96/M
En rimelig versjon av sanntids-GPT—som kan svare på lyd- og tekstinndata i sanntid via WebRTC-, WebSocket- eller SIP-tilkoblinger.
C

gpt-oss-20b

Inndata:$0.08/M
Utdata:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

Inndata:$0.16/M
Utdata:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

Inndata:$8.00/M
Utdata:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

Inndata:$2.00/M
Utdata:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

Inndata:$2.00/M
Utdata:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

Inndata:$8.00/M
Utdata:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

Per forespørsel:$0.04
O

gpt-4-turbo-preview

Inndata:$8.00/M
Utdata:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

Inndata:$8.00/M
Utdata:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

Inndata:$8.00/M
Utdata:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

Per forespørsel:$0.04
O

gpt-4-gizmo-*

Inndata:$24.00/M
Utdata:$48.00/M
O

gpt-4-gizmo

Inndata:$24.00/M
Utdata:$48.00/M
O

gpt-4-dalle

Per forespørsel:$0.04
O

gpt-4-all

Inndata:$24.00/M
Utdata:$48.00/M
A

gpt-4-32k

Inndata:$48.00/M
Utdata:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

Inndata:$8.00/M
Utdata:$16.00/M
O

gpt-4-0613

Inndata:$24.00/M
Utdata:$48.00/M
O

gpt-4-0314

Inndata:$24.00/M
Utdata:$48.00/M
O

gpt-4-0125-preview

Inndata:$8.00/M
Utdata:$16.00/M
O

gpt-4

Inndata:$24.00/M
Utdata:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

Inndata:$0.40/M
Utdata:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

Inndata:$0.40/M
Utdata:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

Per forespørsel:$0.02
New version of DALL-E for image generation.
O

dall-e-2

Inndata:$8.00/M
Utdata:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

Kontekst:200K
Inndata:$2.40/M
Utdata:$12.00/M
Claude Sonnet 4.5 oppnår et betydelig sprang i evnen til å bruke dataprogrammer. På OSWorld, en benchmark-plattform for testing av KI-modeller på praktiske dataoppgaver, hoppet Sonnet 4.5 til toppen med 61.4%, mens Sonnet 4 bare fire måneder tidligere ledet med 42.2%. Vår Claude for Chrome-utvidelse tar disse oppgraderte funksjonene i bruk.
A

Claude Opus 4.5

Kontekst:200K
Inndata:$4.00/M
Utdata:$20.00/M
Claude Opus 4.5 er en instruksjonstilpasset stor språkmodell fra Anthropic, designet for kompleks resonnering, koding og fleromgangsdialog. Den støtter utvidet konteksthåndtering, verktøy- og funksjonskall, strukturerte utdata og integrasjon med RAG-arbeidsflyter. Typiske bruksområder omfatter analytiske assistenter, kodegenerering og -gjennomgang, QA for kunnskapsbaser og utarbeiding av innhold med svar i tråd med retningslinjer. Tekniske høydepunkter inkluderer evne til å følge instruksjoner, RAG-vennlig atferd og sikkerhetskontroller tilgjengelige i Claude-implementeringer.
C

Claude Opus 4.1

Kontekst:200K
Inndata:$12.00/M
Utdata:$60.00/M
Claude Opus 4.1 er en oppdatert versjon av Anthropics flaggskipsmodell og tilbyr forbedret ytelse innen koding, inferens og agentoppgaver. Den oppnår 74.5% på SWE-bench Verified og viser betydelige forbedringer i refaktorering av kode på tvers av flere filer, nøyaktighet i feilsøking og detaljorientert inferens. Denne modellen støtter utvidet resonnering opptil 64K tokens og er optimalisert for oppgaver som innebærer forskning, dataanalyse og verktøyassistert inferens.
C

Claude 4 Sonnet

Kontekst:200K
Inndata:$2.40/M
Utdata:$12.00/M
Raskeste, mest kostnadseffektive modell, 200K kontekstvindu.
C

Claude Opus 4

Kontekst:200K
Inndata:$12.00/M
Utdata:$60.00/M
Den optimale balansen mellom intelligens, kostnad og hastighet. 200K kontekstvindu.
C

Claude 3.7 Sonnet

Inndata:$2.40/M
Utdata:$12.00/M
Claudes store trekk mot R1: den kraftige 3.7 er offisielt tilgjengelig. Denne modellen støtter en maksimal kontekstlengde på 200,000 tokens. Med støtte for tenkning.
C

Claude Haiku 4.5

Kontekst:200K
Inndata:$0.80/M
Utdata:$4.00/M
Raskeste og mest kostnadseffektive modell.
C

Claude 3.5 Haiku

Inndata:$0.80/M
Utdata:$4.00/M
Disse aliasene peker automatisk til det nyeste øyeblikksbildet av en gitt modell. Selv om de er nyttige for eksperimentering, anbefaler vi å bruke spesifikke modellversjoner (f.eks. claude-3-5-sonnet-20241022) i produksjonsapplikasjoner for å sikre konsistent oppførsel. Når vi lanserer nye modell-øyeblikksbilder, vil vi migrere -latest-aliaset til å peke på den nye versjonen (vanligvis innen én uke etter at den nye versjonen er lansert). -latest-aliaset har de samme ratebegrensningene og prisene som den underliggende modellversjonen det refererer til. Denne modellen støtter en maksimal kontekstlengde på 200,000 tokens.
C

Claude 3 Haiku

Inndata:$0.20/M
Utdata:$1.00/M
Claude Haiku 3 er en kunstig intelligensmodell levert av Anthropic.
G

Veo 3.1 Pro

Per forespørsel:$2.00
Veo 3.1-Pro betegner den avanserte tilgangs-/konfigurasjonsvarianten i Googles Veo 3.1-familie — en generasjon videomodeller for kortformat med lydstøtte som tilfører rikere innebygd lyd, forbedrede kontroller for fortelling/redigering og verktøy for utvidelse av scener.
G

Veo 3.1

Per forespørsel:$0.40
Veo 3.1 er Googles inkrementell, men betydelig oppdatering av sin Veo-familie for tekst- og bilde→video, som tilfører rikere innebygd lyd, lengre og mer kontrollerbare videoutdata og mer presis redigering og kontroller på scenenivå.
G

Veo 3 Pro

Per forespørsel:$2.00
Veo 3 pro betegner den produksjonsklare Veo 3-videomodellopplevelsen (høy kvalitet, integrert lyd og utvidet verktøystøtte)
G

Veo 3 Fast

Per forespørsel:$0.40
Veo 3 Fast er Googles hastighetsoptimaliserte variant i Veo-familien av generative videomodeller (Veo 3 / Veo 3.1 osv.). Den er utviklet for å produsere korte videoklipp av høy kvalitet med nativt generert lyd, samtidig som den prioriterer gjennomstrømning og kostnad per sekund—ved å ofre noe av topp visuell kvalitet og/eller lengre enkeltopptak for mye raskere generering og lavere pris. Hva er Veo 3 Fast — kort introduksjon
G

Veo 3

Per forespørsel:$0.40
Veo 3 fra Google DeepMind representerer det fremste innen tekst-til-video-generering, og markerer første gang at en storskala generativ KI-modell sømløst synkroniserer video av høy kvalitet med tilhørende lyd – inkludert dialog, lydeffekter og omgivelseslydbilder.
G

Gemini 2.5 Pro

Kontekst:1M
Inndata:$1.00/M
Utdata:$8.00/M
Gemini 2.5 Pro er en kunstig intelligensmodell levert av Google. Den har innebygde multimodale prosesseringsmuligheter og et ultralangt kontekstvindu på opptil 1 million tokens, noe som gir enestående kraftig støtte for komplekse oppgaver med lange sekvenser. Ifølge Googles data presterer Gemini 2.5 Pro spesielt godt i komplekse oppgaver. Denne modellen støtter en maksimal kontekstlengde på 1,048,576 tokens.
G

Gemini 2.5 Flash

Kontekst:1M
Inndata:$0.24/M
Utdata:$2.00/M
Gemini 2.5 Flash er en KI-modell utviklet av Google, utformet for å tilby raske og kostnadseffektive løsninger for utviklere, spesielt for applikasjoner som krever forbedrede inferensevner. Ifølge forhåndsvisningskunngjøringen for Gemini 2.5 Flash ble modellen lansert i forhåndsvisning 17. april 2025, støtter multimodale inndata og har et kontekstvindu på 1 million tokens. Denne modellen støtter en maksimal kontekstlengde på 65,536 tokens.
G

Nano Banana

Per forespørsel:$0.03
Gemini 2.5 Flash Image (også kjent som nano-banana), Googles mest avanserte modell for bildegenerering og -redigering. Denne oppdateringen gjør det mulig å kombinere flere bilder til ett, opprettholde karakterkonsistens for å fortelle rike historier, utføre målrettede transformasjoner ved hjelp av naturlig språk og utnytte Geminis kunnskap om verden til å generere og redigere bilder.
G

Gemini 2.5 Flash Lite

Kontekst:1M
Inndata:$0.08/M
Utdata:$0.32/M
En optimalisert Gemini 2.5 Flash-modell for høy kostnadseffektivitet og høy gjennomstrømning. Den minste og mest kostnadseffektive modellen, bygget for bruk i stor skala.
G

Gemini 2.5 Pro DeepSearch

Inndata:$8.00/M
Utdata:$64.00/M
Modell for dypsøk, med utvidede muligheter for dypsøk og informasjonsgjenfinning, et ideelt valg for kompleks kunnskapsintegrasjon og analyse.
G

Gemini 2.5 Pro (All)

Inndata:$2.00/M
Utdata:$16.00/M
Gemini 2.5 Pro (All) er en multimodal modell for forståelse av tekst og medier, designet for generelle assistenter og forankret resonnering. Den håndterer etterlevelse av instruksjoner, analytisk skriving, kodeforståelse og bilde-/lydforståelse, med pålitelig verktøy-/funksjonskalling og RAG-vennlig atferd. Typiske bruksområder omfatter chatagenter for virksomheter, dokument- og UI-analyse, visuell spørsmålsbesvarelse og automatisering av arbeidsflyter. Tekniske høydepunkter inkluderer forente bilde-tekst-lyd-inndata, støtte for lange kontekster, strukturert JSON-utdata, strømmende svar og kontroll over systeminstruksjoner.
G

Gemini 2.5 Flash DeepSearch

Inndata:$4.80/M
Utdata:$38.40/M
Dyptgående søkemodell, med forbedrede muligheter for dyptgående søk og informasjonsgjenfinning, et ideelt valg for kompleks kunnskapsintegrasjon og -analyse.
G

Gemini 2.5 Flash (All)

Inndata:$0.24/M
Utdata:$2.00/M
Gemini 2.5 Flash er en KI-modell utviklet av Google, utformet for å levere raske og kostnadseffektive løsninger for utviklere, spesielt for applikasjoner som krever forbedrede inferensevner. Ifølge forhåndsvisningskunngjøringen for Gemini 2.5 Flash ble modellen lansert som forhåndsvisning 17. april 2025, støtter multimodale inndata og har et kontekstvindu på 1 million tokens. Denne modellen støtter en maksimal kontekstlengde på 65,536 tokens.
G

Gemini 2.0 Flash Lite

Inndata:$0.08/M
Utdata:$0.32/M
Gemini 2.0 Flash Lite er en kompakt, instruksjonsfinjustert multimodal modell som er optimalisert for inferens med lav latens og høy gjennomstrømning. Den håndterer tekst- og bildeforståelse, oppsummering, klassifisering og lettvektig resonnering, med verktøy- og funksjonskall og kontroll over strukturert utdata. Typiske bruksområder omfatter samtaleagenter, rask utarbeidelse av innhold, uttrekk av metadata fra dokumenter eller skjermbilder og arbeidsflyter med retrieval-augmentering. Tekniske høydepunkter inkluderer tekst- og bildeinndata, strømmende generering, verktøy- og funksjonskall og distribusjonsalternativer som egner seg for latensfølsomme tjenester.
G

Gemini 2.0 Flash

Inndata:$0.08/M
Utdata:$0.32/M
Gemini 2.0 Flash er en modell for kunstig intelligens levert av Google-Vertex.
G

Nano Banana Pro

Per forespørsel:$0.19
Nano Banana Pro er en KI-modell for generell bistand i tekstsentrerte arbeidsflyter. Den egner seg for instruksjonsbasert prompting for å generere, transformere og analysere innhold med kontrollerbar struktur. Typiske bruksområder inkluderer chatassistenter, dokumentoppsummering, kunnskaps-QA og automatisering av arbeidsflyter. Offentlige tekniske detaljer er begrensede; integrasjonen samsvarer med vanlige mønstre for KI-assistenter, som strukturerte utdata, gjenfinning-forsterkede prompter og verktøy- eller funksjonskall.
G

Gemini 3 Pro Preview

Kontekst:200.0k
Inndata:$1.60/M
Utdata:$9.60/M
Gemini 3 Pro Preview er en modell for generelle formål i Gemini-familien, tilgjengelig i forhåndsversjon for evaluering og prototyping. Den støtter etterlevelse av instruksjoner, resonnering over flere runder og kode- og dataoppgaver, med strukturerte utdata og kall til verktøy/funksjoner for automatisering av arbeidsflyter. Typiske bruksområder omfatter chatassistenter, oppsummering og omskriving, retrieval-forsterket QA, datauttrekk og enkel kodehjelp på tvers av apper og tjenester. Tekniske høydepunkter inkluderer API-basert utrulling, strømmende svar, sikkerhetskontroller og at den er klar for integrasjon, med multimodale muligheter avhengig av forhåndsversjonskonfigurasjonen.
X

Grok Code Fast 1

Kontekst:256K
Inndata:$0.16/M
Utdata:$1.20/M
Grok Code Fast 1 er en AI-programmeringsmodell lansert av xAI, utviklet for raske og effektive grunnleggende kodeoppgaver. Modellen kan behandle 92 tokens per sekund, har et kontekstvindu på 256k, og egner seg for hurtig prototyping, feilsøking av kode og generering av enkle visuelle elementer.
X

Grok 4 Fast

Kontekst:2M
Inndata:$0.16/M
Utdata:$0.40/M
Grok 4 Fast er en ny kunstig intelligens-modell lansert av xAI, som integrerer inferens- og ikke-inferens-funksjonalitet i én enkelt arkitektur. Denne modellen har et kontekstvindu på 2 millioner tokens og er designet for applikasjoner med høy gjennomstrømning, som søk og koding. Modellen tilbys i to versjoner: Grok-4-Fast-Reasoning og Grok-4-Fast-Non-Reasoning, optimalisert for ulike oppgaver.
X

Grok 4.1 Fast

Kontekst:2M
Inndata:$0.16/M
Utdata:$0.40/M
Grok 4.1 Fast er xAIs produksjonsfokuserte storskalamodell, optimalisert for agentdrevet verktøykalling, arbeidsflyter med lang kontekst og inferens med lav latens. Det er en multimodal familie med to varianter, designet for å kjøre autonome agenter som søker, kjører kode, kaller tjenester og resonnerer over ekstremt store kontekster (opptil 2 millioner tokens).
X

Grok 4

Kontekst:256K
Inndata:$2.40/M
Utdata:$12.00/M
Grok 4 er en kunstig intelligens-modell som tilbys av XAI. Støtter for øyeblikket tekstmodalitet, mens syn, bildegenerering og andre funksjoner kommer snart. Har svært kraftige tekniske parametere og økosystemmuligheter: Kontekstvindu: Støtter kontekstbehandling på opptil 256,000 tokens, og ligger i tet blant de mest utbredte modellene.
X

Grok 3 Reasoner

Inndata:$2.40/M
Utdata:$12.00/M
Grok-3-resonneringsmodell, med trinnvis resonnering, Elon Musks konkurrent til R1. Denne modellen støtter en maksimal kontekstlengde på 100,000 tokens.
X

Grok 3 Mini

Inndata:$0.24/M
Utdata:$0.40/M
En lettvektsmodell som tenker før den svarer. Rask, smart og ideell for logikkbaserte oppgaver som ikke krever dyp domenekunnskap. Ufiltrerte tankeprosesser er tilgjengelige. Denne modellen støtter en maksimal kontekstlengde på 100,000 tokens.
X

Grok 3 DeepSearch

Inndata:$2.40/M
Utdata:$12.00/M
Grok-3 dyp, nettverksbasert søkemodell. Denne modellen støtter en maksimal kontekstlengde på 100,000 tokens.
X

Grok 3 DeeperSearch

Inndata:$2.40/M
Utdata:$12.00/M
Grok-3 er en dyp nettverksbasert søkemodell, overlegen grok-3-deepsearch. Denne modellen støtter en maksimal kontekstlengde på 100,000 tokens.
X

Grok 3

Inndata:$2.40/M
Utdata:$12.00/M
Grok-3 er den nyeste KI-chatbotmodellen, lansert av Elon Musks selskap xAI 17. februar 2025. Treningsklyngen har nådd nivået på 200 000 kort. Modellen presterer fremragende i oppgaver som matematikk, vitenskap og programmering, og blir av Musk hyllet som «den smarteste KI-en på jorden». Denne modellen støtter en maksimal kontekstlengde på 100 000 tokens.
X

Grok 2

Inndata:$0.80/M
Utdata:$0.80/M
Grok 2 er en kunstig intelligensmodell levert av XAI.
D

DeepSeek-V3.2

Kontekst:128K
Inndata:$0.22/M
Utdata:$0.35/M
DeepSeek v3.2 er den nyeste produksjonsversjonen i DeepSeek V3-familien: en stor, resonneringsdrevet språkmodellfamilie med åpne vekter, utformet for forståelse av lange kontekster, robust bruk av agenter og verktøy, avansert resonnement, koding og matematikk.
D

DeepSeek-V3

Inndata:$0.22/M
Utdata:$0.88/M
Den mest populære og kostnadseffektive DeepSeek-V3-modellen. 671B fullverdig versjon. Denne modellen støtter en maksimal kontekstlengde på 64,000 tokens.
D

DeepSeek-V3.1

Inndata:$0.44/M
Utdata:$1.32/M
DeepSeek V3.1 er oppgraderingen i DeepSeeks V-serie: en hybrid «tenkende / ikke-tenkende» stor språkmodell rettet mot høy gjennomstrømning og lav kostnad for generell intelligens og agentbasert verktøybruk. Den beholder OpenAI-lignende API-kompatibilitet, legger til smartere verktøykalling og — ifølge selskapet — leverer raskere generering og bedre pålitelighet for agenter.
D

DeepSeek-R1T2-Chimera

Inndata:$0.24/M
Utdata:$0.24/M
En Mixture of Experts-tekstgenereringsmodell med 671B parametere, sammenslått fra DeepSeek-AIs R1-0528, R1 og V3-0324, med støtte for en kontekstlengde på opptil 60k tokens.
D

DeepSeek-Reasoner

Inndata:$0.44/M
Utdata:$1.75/M
DeepSeek-Reasoner er DeepSeeks reasoning-first-familie av LLM-er og API-endepunkter utformet for å (1) eksponere intern chain-of-thought (CoT)-resonnering for anropere og (2) operere i «tenke»-moduser tilpasset planlegging i flere trinn, matematikk, koding og bruk av agenter/verktøy.
D

DeepSeek-OCR

Per forespørsel:$0.04
DeepSeek-OCR er en modell for optisk tegngjenkjenning som henter ut tekst fra bilder og dokumenter. Den behandler skannede sider, fotografier og UI-skjermbilder for å produsere transkripsjoner med oppsettsignaler som linjeskift. Vanlige bruksområder omfatter digitalisering av dokumenter, mottak av fakturaer og kvitteringer, søkeindeksering og å muliggjøre RPA-arbeidsflyter. Tekniske høydepunkter inkluderer bilde-til-tekst-behandling, støtte for skannet og fotografert innhold, samt strukturert tekstutdata for påfølgende parsing.
D

DeepSeek-Chat

Kontekst:64K
Inndata:$0.22/M
Utdata:$0.88/M
Den mest populære og kostnadseffektive DeepSeek-V3-modellen. 671B fullverdig versjon. Denne modellen støtter en maksimal kontekstlengde på 64,000 tokens.
Q

Qwen Image

Per forespørsel:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

Inndata:$0.45/M
Utdata:$1.79/M
- **kimi-k2-250905**: Moonshot AI's Kimi K2-serie 0905-versjon, støtter ultralang kontekst (opptil 256k tokens, frontend- og Tool-kall). - 🧠 Forbedret Tool Calling: 100% nøyaktighet, sømløs integrasjon, egnet for komplekse oppgaver og integrasjonsoptimalisering. - ⚡️ Mer effektiv ytelse: TPS opptil 60-100 (standard API), opptil 600-100 i Turbo-modus, som gir raskere respons og forbedret Inference-kapasitet, kunnskapsgrense inntil midten av 2025.
Q

qwen3-max-preview

Inndata:$0.24/M
Utdata:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

Inndata:$0.24/M
Utdata:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

Inndata:$0.24/M
Utdata:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

Inndata:$0.24/M
Utdata:$0.97/M
Q

qwen3-coder

Inndata:$0.24/M
Utdata:$0.97/M
Q

qwen3-8b

Inndata:$0.04/M
Utdata:$0.16/M
Q

qwen3-32b

Inndata:$1.60/M
Utdata:$6.40/M
Q

qwen3-30b-a3b

Inndata:$0.12/M
Utdata:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

Inndata:$0.22/M
Utdata:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

Inndata:$0.80/M
Utdata:$3.20/M
Q

qwen2.5-vl-72b-instruct

Inndata:$2.40/M
Utdata:$7.20/M
Q

qwen2.5-vl-72b

Inndata:$2.40/M
Utdata:$7.20/M
Q

qwen2.5-vl-32b-instruct

Inndata:$2.40/M
Utdata:$7.20/M
Q

qwen2.5-omni-7b

Inndata:$60.00/M
Utdata:$60.00/M
Q

qwen2.5-math-72b-instruct

Inndata:$3.20/M
Utdata:$3.20/M
Q

qwen2.5-coder-7b-instruct

Inndata:$0.80/M
Utdata:$0.80/M
Q

qwen2.5-coder-32b-instruct

Inndata:$0.80/M
Utdata:$0.80/M
Q

qwen2.5-7b-instruct

Inndata:$0.80/M
Utdata:$0.80/M
Q

qwen2.5-72b-instruct

Inndata:$3.20/M
Utdata:$3.20/M
Q

qwen2.5-32b-instruct

Inndata:$0.96/M
Utdata:$0.96/M
Q

qwen2.5-14b-instruct

Inndata:$3.20/M
Utdata:$3.20/M
Q

qwen2-vl-7b-instruct

Inndata:$1.60/M
Utdata:$1.60/M
Q

qwen2-vl-72b-instruct

Inndata:$1.60/M
Utdata:$1.60/M
Q

qwen2-7b-instruct

Inndata:$0.16/M
Utdata:$0.16/M
Q

qwen2-72b-instruct

Inndata:$8.00/M
Utdata:$8.00/M
Q

qwen2-57b-a14b-instruct

Inndata:$3.20/M
Utdata:$3.20/M
Q

qwen2-1.5b-instruct

Inndata:$0.16/M
Utdata:$0.16/M
Q

qwen1.5-7b-chat

Inndata:$0.16/M
Utdata:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

Inndata:$3.20/M
Utdata:$3.20/M
M

mj_turbo_zoom

Per forespørsel:$0.17
M

mj_turbo_variation

Per forespørsel:$0.17
M

mj_turbo_upscale_subtle

Per forespørsel:$0.17
M

mj_turbo_upscale_creative

Per forespørsel:$0.17
M

mj_turbo_upscale

Per forespørsel:$0.02
M

mj_turbo_upload

Per forespørsel:$0.01
M

mj_turbo_shorten

Per forespørsel:$0.17
M

mj_turbo_reroll

Per forespørsel:$0.17
M

mj_turbo_prompt_analyzer_extended

Per forespørsel:$0.00
M

mj_turbo_prompt_analyzer

Per forespørsel:$0.00
M

mj_turbo_pic_reader

Per forespørsel:$0.00
M

mj_turbo_pan

Per forespørsel:$0.17
M

mj_turbo_modal

Per forespørsel:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

Per forespørsel:$0.17
M

mj_turbo_inpaint

Per forespørsel:$0.08
M

mj_turbo_imagine

Per forespørsel:$0.17
M

mj_turbo_high_variation

Per forespørsel:$0.17
M

mj_turbo_describe

Per forespørsel:$0.00
M

mj_turbo_custom_zoom

Per forespørsel:$0.00
M

mj_turbo_blend

Per forespørsel:$0.17
M

mj_fast_zoom

Per forespørsel:$0.06
M

mj_fast_video

Per forespørsel:$0.60
Midjourney video generation
M

mj_fast_variation

Per forespørsel:$0.06
M

mj_fast_upscale_subtle

Per forespørsel:$0.06
M

mj_fast_upscale_creative

Per forespørsel:$0.06
M

mj_fast_upscale

Per forespørsel:$0.01
M

mj_fast_upload

Per forespørsel:$0.01
M

mj_fast_shorten

Per forespørsel:$0.06
M

mj_fast_reroll

Per forespørsel:$0.06
M

mj_fast_prompt_analyzer_extended

Per forespørsel:$0.00
M

mj_fast_prompt_analyzer

Per forespørsel:$0.00
M

mj_fast_pic_reader

Per forespørsel:$0.00
M

mj_fast_pan

Per forespørsel:$0.06
M

mj_fast_modal

Per forespørsel:$0.06
M

mj_fast_low_variation

Per forespørsel:$0.06
M

mj_fast_inpaint

Per forespørsel:$0.06
M

mj_fast_imagine

Per forespørsel:$0.06
Midjourney drawing
M

mj_fast_high_variation

Per forespørsel:$0.06
M

mj_fast_edits

Per forespørsel:$0.06
M

mj_fast_describe

Per forespørsel:$0.00
M

mj_fast_custom_zoom

Per forespørsel:$0.00
M

mj_fast_blend

Per forespørsel:$0.06
S

suno_uploads

Per forespørsel:$0.02
Last opp musikk
S

suno_persona_create

Per forespørsel:$0.01
Create a personal style
S

suno_music

Per forespørsel:$0.14
Generer musikk
S

suno_lyrics

Per forespørsel:$0.02
Generate lyrics
S

suno_concat

Per forespørsel:$0.04
Song splicing
S

suno_act_wav

Per forespørsel:$0.01
Get WAV format files
S

suno_act_timing

Per forespørsel:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

Per forespørsel:$0.01
S

suno_act_mp4

Per forespørsel:$0.01
Generate MP4 MV
K

kling_virtual_try_on

Per forespørsel:$0.20
K

kling_video

Per forespørsel:$0.40
K

kling_tts

Per forespørsel:$0.02
[Talesyntese] Nylig lansert: tekst til kringkastingsklar lyd på nett, med forhåndsvisning ● Kan samtidig generere audio_id, kompatibel med alle Keling-API-er.
K

kling_multi_image2image

Per forespørsel:$0.32
K

kling_multi_elements_submit

Per forespørsel:$0.40
K

kling_multi_elements_preview

Per forespørsel:$0.00
K

kling_multi_elements_init

Per forespørsel:$0.00
K

kling_multi_elements_delete

Per forespørsel:$0.00
K

kling_multi_elements_clear

Per forespørsel:$0.00
K

kling_multi_elements_add

Per forespørsel:$0.00
K

kling_lip_sync

Per forespørsel:$0.20
K

kling_image_recognize

Per forespørsel:$0.04
Keling API for gjenkjenning av bildeelementer, kan brukes til generering av video med flere referansebilder, multimodale videoredigeringsfunksjoner ● Kan gjenkjenne objekter, ansikter, klær osv., og kan hente opptil 4 sett med resultater (hvis tilgjengelig) per forespørsel.
K

kling_image_expand

Per forespørsel:$0.16
K

kling_image

Per forespørsel:$0.02
K

kling_identify_face

Per forespørsel:$0.02
K

kling_extend

Per forespørsel:$0.40
K

kling_effects

Per forespørsel:$0.40
K

kling_avatar_image2video

Per forespørsel:$0.16
K

kling_audio_video_to_audio

Per forespørsel:$0.20
K

kling_audio_text_to_audio

Per forespørsel:$0.20
K

kling_advanced_lip_syn

Per forespørsel:$0.20
D

Doubao Seedream 4-5

Per forespørsel:$0.04
Seedream 4.5 er ByteDance/Seeds multimodale bildemodell (tekst→bilde + bilderedigering) som fokuserer på bildegjengivelsestrohet på produksjonsnivå, sterkere etterlevelse av prompten og betydelig forbedret redigeringskonsistens (bevaring av motiv, gjengivelse av tekst/typografi og ansiktsrealisme).
D

doubao-seedream-4-0-250828

Per forespørsel:$0.02
D

doubao-seedream-3-0-t2i-250415

Per forespørsel:$0.02
D

doubao-seededit-3-0-i2i-250628

Per forespørsel:$0.02
D

doubao-seed-1-6-thinking-250715

Inndata:$0.04/M
Utdata:$1.07/M
D

doubao-seed-1-6-flash-250615

Inndata:$0.04/M
Utdata:$1.07/M
D

doubao-seed-1-6-250615

Inndata:$0.04/M
Utdata:$1.07/M
D

doubao-1.5-vision-pro-250328

Inndata:$0.33/M
Utdata:$1.00/M
D

doubao-1.5-vision-lite-250315

Inndata:$0.17/M
Utdata:$0.50/M
D

doubao-1.5-pro-32k-250115

Inndata:$0.18/M
Utdata:$0.44/M
D

doubao-1.5-pro-256k

Inndata:$1.10/M
Utdata:$1.99/M
D

doubao-1-5-vision-pro-32k

Inndata:$0.33/M
Utdata:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

Inndata:$0.33/M
Utdata:$1.00/M
D

doubao-1-5-thinking-pro-250415

Inndata:$0.45/M
Utdata:$1.79/M
D

doubao-1-5-pro-32k-250115

Inndata:$0.18/M
Utdata:$0.44/M
D

doubao-1-5-pro-32k

Inndata:$0.18/M
Utdata:$0.44/M
D

doubao-1-5-pro-256k-250115

Inndata:$0.56/M
Utdata:$1.00/M
D

doubao-1-5-pro-256k

Inndata:$1.10/M
Utdata:$1.99/M
D

doubao-1-5-lite-32k-250115

Inndata:$0.03/M
Utdata:$0.07/M
D

Doubao-Seed-1.6-thinking

Inndata:$0.04/M
Utdata:$1.07/M
D

Doubao-Seed-1.6-flash

Inndata:$0.04/M
Utdata:$1.07/M
D

Doubao-Seed-1.6

Inndata:$0.04/M
Utdata:$1.07/M
D

Doubao-1.5-vision-pro-32k

Inndata:$0.33/M
Utdata:$1.00/M
D

Doubao-1.5-vision-pro

Inndata:$0.33/M
Utdata:$1.00/M
D

Doubao-1.5-vision-lite

Inndata:$0.17/M
Utdata:$0.50/M
D

Doubao-1.5-thinking-vision-pro

Inndata:$0.33/M
Utdata:$1.00/M
D

Doubao-1.5-thinking-pro

Inndata:$0.45/M
Utdata:$1.79/M
D

Doubao-1.5-pro-32k

Inndata:$0.18/M
Utdata:$0.44/M
D

Doubao-1.5-lite-32k

Inndata:$0.07/M
Utdata:$0.13/M
R

runwayml_video_to_video

Per forespørsel:$0.96
R

runwayml_upscale_video

Per forespørsel:$0.16
R

runwayml_text_to_image

Per forespørsel:$0.32
R

runwayml_image_to_video

Per forespørsel:$0.32
R

runwayml_character_performance

Per forespørsel:$0.40
R

runway_video2video

Per forespørsel:$0.20
R

runway_video

Per forespørsel:$0.20
R

runway_act_one

Per forespørsel:$0.40
R

Black Forest Labs/FLUX 2 PRO

Per forespørsel:$0.06
FLUX 2 PRO er flaggskipmodellen for kommersiell bruk i FLUX 2-serien, og leverer banebrytende bildegenerering med en kvalitet og detaljrikdom uten sidestykke. Bygget for profesjonelle og bedriftsapplikasjoner, tilbyr den overlegen prompt-etterlevelse, fotorealistiske resultater og eksepsjonelle kunstneriske egenskaper. Denne modellen representerer spydspissen innen AI-basert bildesynteseteknologi.
R

Black Forest Labs/FLUX 2 FLEX

Per forespørsel:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

Per forespørsel:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

Per forespørsel:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

Per forespørsel:$0.13
R

stability-ai/stable-diffusion-3.5-large

Per forespørsel:$0.21
R

stability-ai/stable-diffusion-3

Per forespørsel:$0.11
R

stability-ai/stable-diffusion

Per forespørsel:$0.02
R

stability-ai/sdxl

Per forespørsel:$0.03
R

recraft-ai/recraft-v3-svg

Per forespørsel:$0.26
R

recraft-ai/recraft-v3

Per forespørsel:$0.13
R

ideogram-ai/ideogram-v2-turbo

Per forespørsel:$0.06
R

ideogram-ai/ideogram-v2

Per forespørsel:$0.10
R

bria/remove-background

Inndata:$60.00/M
Utdata:$60.00/M
R

bria/increase-resolution

Inndata:$60.00/M
Utdata:$60.00/M
R

bria/image-3.2

Inndata:$60.00/M
Utdata:$60.00/M
R

bria/genfill

Inndata:$60.00/M
Utdata:$60.00/M
R

bria/generate-background

Inndata:$60.00/M
Utdata:$60.00/M
R

bria/expand-image

Inndata:$60.00/M
Utdata:$60.00/M
R

bria/eraser

Inndata:$60.00/M
Utdata:$60.00/M
R

black-forest-labs/flux-schnell

Per forespørsel:$0.01
black-forest-labs/flux-schnell er en generativ tekst-til-bilde-modell fra Black Forest Labs, utformet for rask sampling og iterativ utforskning av prompts. Den syntetiserer varierte stiler og komposisjoner fra korte prompts, støtter negativ prompting og seed-kontroll, og kan produsere høyoppløselige resultater som egner seg for produktmockups, konseptkunst og markedsføringsvisualer. Typiske bruksområder omfatter interaktiv idégenerering, generering av miniatyrbilder og bannere, samt automatiserte kreative varianter i innholdspipelines. Tekniske høydepunkter inkluderer kompatibilitet med Hugging Face Diffusers-stacken, fleksibel oppløsningskontroll og en effektiv sampler optimalisert for hastighet på vanlige GPU-er.
R

black-forest-labs/flux-pro

Per forespørsel:$0.18
black-forest-labs/flux-pro er en generativ tekst-til-bilde-modell fra Black Forest Labs for bildesyntese med høy trofasthet på tvers av stiler og motiver. Den gjør detaljerte prompter om til sammenhengende komposisjoner med kontrollerbare attributter som sideforhold og stil via standard generasjonsparametere. Typiske bruksområder inkluderer konseptkunst, produktvisualisering, markedsføringsmateriell og fotorealistiske scener i designarbeidsflyter. Tekniske høydepunkter inkluderer tekst-til-bilde-modalitet, prompt-etterlevelse i instruksjonsstil og integrasjon i vanlige verktøykjeder for bildegenerering.
R

black-forest-labs/flux-kontext-pro

Per forespørsel:$0.05
black-forest-labs/flux-kontext-pro er en multimodal diffusjonsmodell for kontekstbevisst bildegenerering. Den genererer bilder fra tekstprompter og valgfrie referansebilder, og bevarer komposisjon og stilhint for forankrede resultater. Typiske bruksområder omfatter produksjon av merkevaremateriell, produktvisualer og visuell idéskaping ved hjelp av moodboards eller eksempelbilder. Tekniske høydepunkter inkluderer tekst- og bildeinndata, referansebetinget sampling og reproduserbare utdata via seed-kontroll.
R

black-forest-labs/flux-kontext-max

Per forespørsel:$0.10
black-forest-labs/flux-kontext-max er en kontekstbetinget bildegenereringsmodell i FLUX-serien, utviklet for å lage bilder fra tekst med valgfrie referanseinput. Den muliggjør forankret syntese, bevaring av stil eller motiv, samt kontrollerte variasjoner styrt av den oppgitte visuelle konteksten. Typiske bruksområder omfatter merkevarekonsistent kreativt materiell, produktmockups, karakterkontinuitet og moodboard-drevet idéutvikling. Tekniske høydepunkter inkluderer diffusjonsbasert generering og multimodal kondisjonering med tekst og referanseinput, egnet for referansestyrte arbeidsflyter.
R

black-forest-labs/flux-dev

Per forespørsel:$0.08
black-forest-labs/flux-dev er en tekst-til-bilde-modell med åpne vekter fra Black Forest Labs for å generere bilder fra tekstprompter på naturlig språk. Den produserer fotorealistiske og stiliserte resultater fra detaljerte prompter og fungerer med vanlige kontrollalternativer i diffusjonspipelines. Typiske bruksområder omfatter konseptkunst, produktvisualisering, markedsføringsbilder og rask kreativ utforskning i designarbeidsflyter. Tekniske høydepunkter inkluderer et transformer-basert rectified-flow-design, integrasjon med Hugging Face Diffusers-biblioteket og utrulling via standard GPU-inferensstakker.
R

black-forest-labs/flux-1.1-pro-ultra

Per forespørsel:$0.19
black-forest-labs/flux-1.1-pro-ultra er en tekst-til-bilde-diffusjonstransformer utformet for produksjonsklar bildesyntese fra prompter på naturlig språk. Den genererer detaljerte resultater fra komplekse instruksjoner, med kontroll over stil, komposisjon, sideforhold, negative prompter og seed-reproduserbarhet. Typiske bruksområder omfatter markedsføringsmateriell, produktvisualisering, konseptkunst og idéutvikling for innhold. Tekniske høydepunkter inkluderer transformerbasert diffusjon, text-encoder-veiledning og utrulling via vanlige inferens-API-er med scheduler- og guidance-parametere.
R

black-forest-labs/flux-1.1-pro

Per forespørsel:$0.13
black-forest-labs/flux-1.1-pro er en modell for tekst-til-bilde-generering fra Black Forest Labs for kontrollerbare visuelle resultater med høy trofasthet. Den tolker detaljerte prompter for å produsere komposisjoner på tvers av stiler og motiver, med støtte for iterativ forbedring og bildevariasjoner i vanlige arbeidsflyter for diffusjonsmodeller. Typiske bruksområder inkluderer konseptkunst, produktmockups, markedsføringsbilder og sceneutforskning. Tekniske høydepunkter omfatter tekstbetinget bildesyntese og integrasjon med standard inferensverktøykjeder som brukes for diffusjonsmodeller.
F

FLUX 2 PRO

Per forespørsel:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

Per forespørsel:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

Inndata:$0.22/M
Utdata:$1.15/M
Llama-4-Scout er en språkmodell for generelle formål for interaksjon i assistentstil og automatisering. Den håndterer å følge instruksjoner, resonnering, oppsummering og transformasjonsoppgaver, og kan støtte enkel koderelatert assistanse. Typiske bruksområder omfatter samtaleorkestrering, kunnskapsforsterket QA og generering av strukturert innhold. Tekniske høydepunkter inkluderer kompatibilitet med mønstre for verktøy-/funksjonskall, gjenfinning-forsterket prompting og skjemabegrensede utdata for integrasjon i produktarbeidsflyter.
L

Llama-4-Maverick

Inndata:$0.48/M
Utdata:$1.44/M
Llama-4-Maverick er en generell språkmodell for tekstforståelse og -generering. Den støtter samtalebasert QA, oppsummering, strukturert utarbeidelse og grunnleggende kodehjelp, med muligheter for strukturerte utdata. Vanlige bruksområder omfatter produktassistenter, front-end-grensesnitt for kunnskapsinnhenting og arbeidsflytautomatisering som krever konsekvent formatering. Tekniske detaljer som antall parametere, kontekstvindu, modalitet og verktøy- eller funksjonskall varierer mellom distribusjoner; integrer i samsvar med implementasjonens dokumenterte kapabiliteter.
M

minimax_video-01

Per forespørsel:$1.44
M

minimax_minimax-hailuo-02

Per forespørsel:$2.88
M

minimax_files_retrieve

Per forespørsel:$0.00
M

minimax-m2

Inndata:$0.24/M
Utdata:$0.96/M
minimax-m2 er en kompakt og effektiv stor språkmodell, optimalisert for ende-til-ende-programmering og agentarbeidsflyter, med 10 milliarder aktive parametere (230 milliarder totale parametere), som presterer nær state-of-the-art innen generell inferens, verktøybruk og flertrinns oppgaveutførelse, samtidig som den opprettholder lav latens og høy effektivitet ved utrulling. Modellen utmerker seg i kodegenerering, redigering av flere filer, kompiler–kjør–fiks-løkker og feilretting i testverifisering, og oppnår svært gode resultater i benchmark-tester som SWE-Bench Verified, Multi-SWE-Bench og Terminal-Bench, og viser konkurranseevne i langsyklisk oppgaveplanlegging, informasjonsinnhenting og gjenoppretting etter kjørefeil i agent-evalueringer som BrowseComp og GAIA. Vurdert av Artificial Analysis rangerer MiniMax-M2 i det øverste sjiktet blant åpne kildekode-modeller innen omfattende intelligensområder som matematikk, vitenskapelig inferens og evnen til å følge instruksjoner. Det lave antallet aktive parametere muliggjør rask inferens, høy samtidighet og bedre enhetsøkonomi, noe som gjør den ideell for storskala agentutrulling, utviklerstøtteverktøy og inferensdrevne applikasjoner som krever responshastighet og kostnadseffektivitet.
F

flux-pro-finetuned

Per forespørsel:$0.07
F

flux-pro-1.1-ultra-finetuned

Per forespørsel:$0.10
F

flux-pro-1.1-ultra

Per forespørsel:$0.07
F

flux-pro-1.1

Per forespørsel:$0.05
F

flux-pro-1.0-fill-finetuned

Per forespørsel:$0.10
F

flux-pro-1.0-fill

Per forespørsel:$0.06
F

flux-pro-1.0-depth-finetuned

Per forespørsel:$0.10
F

flux-pro-1.0-depth

Per forespørsel:$0.06
F

flux-pro-1.0-canny-finetuned

Per forespørsel:$0.10
F

flux-pro-1.0-canny

Per forespørsel:$0.06
F

flux-pro

Per forespørsel:$0.05
F

flux-kontext-pro

Per forespørsel:$0.05
F

flux-kontext-max

Per forespørsel:$0.10
F

flux-finetune

Per forespørsel:$0.05
F

flux-dev

Per forespørsel:$0.03
H

hunyuan-vision

Inndata:$2.01/M
Utdata:$2.01/M
H

hunyuan-turbos-vision-20250619

Inndata:$0.33/M
Utdata:$1.00/M
H

hunyuan-turbos-vision

Inndata:$0.33/M
Utdata:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

Inndata:$0.17/M
Utdata:$0.67/M
H

hunyuan-turbos-latest

Inndata:$0.09/M
Utdata:$0.22/M
H

hunyuan-turbos-20250604

Inndata:$0.09/M
Utdata:$0.22/M
H

hunyuan-turbos-20250515

Inndata:$0.09/M
Utdata:$0.22/M
H

hunyuan-turbos-20250416

Inndata:$0.09/M
Utdata:$0.22/M
H

hunyuan-turbos-20250313

Inndata:$0.09/M
Utdata:$0.22/M
H

hunyuan-t1-vision-20250619

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-t1-vision

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-t1-latest

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-t1-20250711

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-t1-20250529

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-t1-20250521

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-t1-20250403

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-t1-20250321

Inndata:$0.11/M
Utdata:$0.45/M
H

hunyuan-standard-256K

Inndata:$0.06/M
Utdata:$0.22/M
H

hunyuan-standard

Inndata:$0.09/M
Utdata:$0.22/M
H

hunyuan-role

Inndata:$0.45/M
Utdata:$0.89/M
H

hunyuan-pro

Inndata:$1.60/M
Utdata:$1.60/M
H

hunyuan-lite

Inndata:$1.60/M
Utdata:$1.60/M
H

hunyuan-large-vision

Inndata:$0.45/M
Utdata:$1.34/M
H

hunyuan-large

Inndata:$0.45/M
Utdata:$1.34/M
H

hunyuan-functioncall

Inndata:$0.45/M
Utdata:$0.89/M
H

hunyuan-embedding

Inndata:$0.08/M
Utdata:$0.08/M
H

hunyuan-code

Inndata:$0.39/M
Utdata:$0.78/M
H

hunyuan-all

Inndata:$0.11/M
Utdata:$0.22/M
H

hunyuan-a13b

Inndata:$0.06/M
Utdata:$0.22/M
H

hunyuan

Inndata:$0.11/M
Utdata:$0.11/M
Z

glm-zero-preview

Inndata:$60.00/M
Utdata:$60.00/M
Z

glm-4v-plus

Inndata:$4.80/M
Utdata:$4.80/M
Z

glm-4v

Inndata:$24.00/M
Utdata:$24.00/M
Z

GLM 4.6

Kontekst:200
Inndata:$0.64/M
Utdata:$2.56/M
Zhipus nyeste flaggskipsmodell GLM-4.6 lansert: totalt antall parametere 355B, aktive parametere 32B. De samlede kjerneevene overgår GLM-4.5. Koding: På nivå med Claude Sonnet 4, best i Kina. Kontekst: Utvidet til 200K (opprinnelig 128K). Inferens: Forbedret, støtter verktøykall. Søk: Optimalisert verktøy- og agentrammeverk. Skriving: Mer i tråd med menneskelige preferanser, skrivestil og rollespill. Flerspråklig: Forbedret oversettelseskvalitet.
Z

glm-4.5-x

Inndata:$3.20/M
Utdata:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

Inndata:$0.16/M
Utdata:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

Inndata:$1.60/M
Utdata:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

Inndata:$0.16/M
Utdata:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

Inndata:$0.48/M
Utdata:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

Inndata:$24.00/M
Utdata:$24.00/M
Z

glm-4-long

Inndata:$0.48/M
Utdata:$0.48/M
Z

glm-4-flash

Inndata:$0.05/M
Utdata:$0.05/M
Z

glm-4-airx

Inndata:$4.80/M
Utdata:$4.80/M
Z

glm-4-air

Inndata:$0.48/M
Utdata:$0.48/M
Z

glm-4-0520

Inndata:$24.00/M
Utdata:$24.00/M
Z

glm-4

Inndata:$24.00/M
Utdata:$24.00/M
Z

glm-3-turbo

Inndata:$1.60/M
Utdata:$1.60/M