Nøkkelfunksjoner
- Tekst→bilde-generering: konverterer naturlig språklige prompter til bilder med sterk instruksjonsoppfølging.
- Bilderedigering / inpainting: godtar referansebilder og masker for målrettede endringer.
- Kostnadsoptimalisert («mini») design: et mindre fotavtrykk som OpenAI og observatører beskriver som mye billigere per bilde enn den store modellen (OpenAI/DevDay-meldinger og tidlige rapporter sier ~80% billigere).
- Fleksible utdata-kontroller: støtter størrelse, utdataformat (JPEG/PNG/WEBP), komprimering og en kvalitetsbryter (low/medium/high/auto i cookbook).
Tekniske detaljer (arkitektur og funksjoner)
- Modellfamilie og input/output: medlem av gpt-image-1-familien; godtar tekstprompter og bildeinput (for redigeringer) og returnerer genererte bildeutdata. Kvalitet/størrelse-parametere kontrollerer oppløsningen (typisk maks ~1536×1024 i denne familien—se dokumentasjonen for nøyaktig støttede størrelser).
- Driftsmessige avveininger: konstruert som en modell med mindre fotavtrykk—bytter noe toppnivå-fidelitet mot forbedret gjennomstrømning og kostnad samtidig som robust instruksjonsoppfølging og redigeringsfunksjoner bevares.
- Sikkerhet og metadata: følger OpenAIs bildesikkerhetsretningslinjer og bygger inn C2PA-metadataalternativer for proveniens når tilgjengelig.
Inndata og utdata — kanonisk bruk støtter:
- Tekstprompt (streng) for å generere et nytt bilde.
- Bilde + maske for målrettede redigeringer/inpainting.
- Referansebilder for å styre stil eller komposisjon.
Dette eksponeres via Images API (modellnavngpt-image-1-mini).
Begrensninger
- Lavere toppfidelitet: sammenlignet med den store gpt-image-1-modellen kan mini miste noe mikrodetalj og den høyeste fotorealismen (forventet avveining for kostnad).
- Tekstgjengivelse og bittesmå detaljer: som mange bildemodeller kan den streve med liten lesbar tekst, tette diagrammer eller mikrofine teksturer; forvent etterbehandling eller bruk av modeller med høyere kapasitet for disse behovene.
- Redigeringsomfang: bildeforbedring/inpainting er tilgjengelig, men antyder noen begrensninger sammenlignet med interaktive ChatGPT-nettverktøy—redigeringer er effektive for mange oppgaver, men kan kreve iterativ forfining.
- Sikkerhet og retningslinjer: utdata er underlagt OpenAIs moderering/sikkerhetsretningslinjer (eksplisitt innhold, opphavsrettsbeskyttet innhold, ikke-tillatte utdata). Utviklere kan styre modereringsfølsomhet via API-parametere der dette tilbys.
Anbefalte bruksområder
- Innholdsgenerering i stor skala (markedsføringsressurser, miniatyrbilder, rask konseptkunst) — der kostnad per bilde er viktigst.
- Programmatisk redigering / malbruk — masse-inpainting eller variantgenerering fra en grunnressurs.
- Interaktive applikasjoner med budsjettrammer — chattegrensesnitt eller integrerte designverktøy der responstid og kostnad betyr mer enn absolutt toppfidelitet.
- Prototyping og A/B-bildegenerering — generer mange kandidatbilder raskt, og oppskaler selektivt eller kjør på nytt på større modeller for finalistene.
- Slik får du tilgang til gpt-image-1-mini API
Trinn 1: Registrer API-nøkkel
Logg inn på cometapi.com. Hvis du ikke er bruker ennå, registrer deg først. Logg inn på din CometAPI console. Hent API-nøkkelen for tilgang til grensesnittet. Klikk «Add Token» ved API token i det personlige senteret, hent token-nøkkelen: sk-xxxxx og send inn.
Trinn 2: Send forespørsler til gpt-image-1-mini API
Velg «\**gpt-image-1-mini \**»-endepunktet for å sende API-forespørselen og angi forespørselens body. Forespørselsmetode og -kropp hentes fra API-dokumentasjonen på nettstedet vårt. Nettstedet vårt tilbyr også Apifox-test for enkelhets skyld. Erstatt <YOUR_API_KEY> med din faktiske CometAPI-nøkkel fra kontoen din.
Sett inn spørsmålet eller forespørselen din i content-feltet—dette er det modellen vil svare på. Behandle API-responsen for å hente det genererte svaret.
Trinn 3: Hent og verifiser resultater
Behandle API-responsen for å få det genererte svaret. Etter behandlingen svarer API-et med oppgavestatus og utdata.