ModellerStøtteBedriftBlogg
500+ AI-modell API, Alt I Én API. Bare I CometAPI
Modeller API
Utvikler
HurtigstartDokumentasjonAPI Dashbord
Ressurser
AI-modellerBloggBedriftEndringsloggOm oss
2025 CometAPI. Alle rettigheter reservert.PersonvernerklæringTjenestevilkår
Home/Models/OpenAI/tts-1-1106
O

tts-1-1106

Inndata:$12/M
Utdata:$12/M
Kommersiell bruk
Oversikt
Funksjoner
Priser
API

Technical Specifications of tts-1-1106

AttributeDetails
Model IDtts-1-1106
Provider familyOpenAI text-to-speech model family
Primary capabilityConverts text input into natural-sounding spoken audio
Typical endpoint/v1/audio/speech
Optimization focusLow-latency, realtime-oriented speech generation
Input modalityText
Output modalityAudio
Supported output formatsmp3, opus, aac, flac, wav, pcm
Voice supportCompatible with OpenAI’s built-in TTS voices; the tts-1 / tts-1-hd family supports a smaller subset including alloy, ash, coral, echo, fable, nova, onyx, sage, and shimmer
Max input length4096 characters per request
Pricing referenceOpenAI lists TTS speech generation pricing at $15.00 per 1M characters for the TTS category
Compliance noteEnd users should be clearly informed when the voice they hear is AI-generated

What is tts-1-1106?

tts-1-1106 is CometAPI’s platform identifier for an OpenAI text-to-speech model in the tts-1 family, designed to transform written text into spoken audio. OpenAI documents tts-1 as a model optimized for speed and realtime use cases, making it suitable for interactive applications that need fast speech generation rather than maximum offline rendering quality.

In practice, this model class is used for scenarios such as narration, voice assistants, accessibility features, conversational interfaces, and automated audio playback. It is accessed through the speech-generation workflow of the Audio API, where developers provide text, select a supported voice, and receive audio in a chosen output format.

Because the exact -1106 suffix appears to be a platform-side identifier rather than the public OpenAI model alias, the safest interpretation is that tts-1-1106 maps to the behavior and integration pattern of OpenAI’s tts-1 generation family. That means developers should expect a fast TTS model focused on responsive synthesis, standard speech endpoint usage, and built-in voice selection.

Main features of tts-1-1106

  • Realtime-oriented speech generation: The underlying tts-1 family is optimized for speed, which makes it well suited for live applications, assistants, and other latency-sensitive audio experiences.
  • Natural-sounding text-to-audio conversion: It converts plain text into lifelike spoken output for playback, narration, and voice-enabled product features.
  • Multiple output formats: Developers can request audio in mp3, opus, aac, flac, wav, or raw pcm, which supports both consumer playback and lower-latency system integration.
  • Built-in voice options: The model family supports a set of preset voices, letting teams choose a delivery style that fits their product tone without training a custom speaker model.
  • Straightforward API integration: The model is designed to work through the standard speech endpoint, reducing implementation complexity for teams already using OpenAI-compatible audio APIs.
  • Language flexibility: OpenAI states its TTS stack generally follows Whisper language support, enabling speech generation across many languages even though voices are primarily optimized for English.
  • Streaming-friendly usage: OpenAI’s speech API supports streamed audio delivery, allowing playback to begin before the full file is finished in suitable implementations.
  • Practical for production apps: With documented rate limits, standardized endpoint behavior, and usage-policy guidance around AI voice disclosure, the model family is suitable for real application deployment.

How to access and integrate tts-1-1106

Step 1: Sign Up for API Key

Sign up on CometAPI and generate your API key from the dashboard. Store the key securely and configure it as an environment variable in your application so your backend can authenticate requests to the tts-1-1106 API.

Step 2: Send Requests to tts-1-1106 API

Send a POST request to the OpenAI-compatible audio speech endpoint through CometAPI, setting model to tts-1-1106 and including the input text plus any supported options such as voice and response_format.

curl --request POST \
  --url https://api.cometapi.com/v1/audio/speech \
  --header "Authorization: Bearer $COMETAPI_API_KEY" \
  --header "Content-Type: application/json" \
  --data '{
    "model": "tts-1-1106",
    "input": "Welcome to CometAPI text to speech.",
    "voice": "alloy",
    "response_format": "mp3"
  }' \
  --output speech.mp3

Step 3: Retrieve and Verify Results

Save the returned audio file or stream the response directly in your application, then verify that the speech content, selected voice, format, and playback quality match your expected output for tts-1-1106.

Funksjoner for tts-1-1106

Utforsk nøkkelfunksjonene til tts-1-1106, designet for å forbedre ytelse og brukervennlighet. Oppdag hvordan disse mulighetene kan være til nytte for prosjektene dine og forbedre brukeropplevelsen.

Priser for tts-1-1106

Utforsk konkurransedyktige priser for tts-1-1106, designet for å passe ulike budsjetter og bruksbehov. Våre fleksible planer sikrer at du bare betaler for det du bruker, noe som gjør det enkelt å skalere etter hvert som kravene dine vokser. Oppdag hvordan tts-1-1106 kan forbedre prosjektene dine samtidig som kostnadene holdes håndterbare.
Komet-pris (USD / M Tokens)Offisiell pris (USD / M Tokens)Rabatt
Inndata:$12/M
Utdata:$12/M
Inndata:$15/M
Utdata:$15/M
-20%

Eksempelkode og API for tts-1-1106

Få tilgang til omfattende eksempelkode og API-ressurser for tts-1-1106 for å effektivisere integreringsprosessen din. Vår detaljerte dokumentasjon gir trinn-for-trinn-veiledning som hjelper deg med å utnytte det fulle potensialet til tts-1-1106 i prosjektene dine.

Flere modeller

G

Nano Banana 2

Inndata:$0.4/M
Utdata:$2.4/M
Oversikt over kjernefunksjoner: Oppløsning: Opptil 4K (4096×4096), på nivå med Pro. Konsistens for referansebilder: Opptil 14 referansebilder (10 objekter + 4 figurer), opprettholder stil- og figurkonsistens. Ekstreme sideforhold: Nye 1:4, 4:1, 1:8, 8:1-forhold lagt til, egnet for lange bilder, plakater og bannere. Tekstgjengivelse: Avansert tekstgenerering, egnet for infografikk og markedsføringsplakatoppsett. Søkeforbedring: Integrert Google-søk + bildesøk. Forankring: Innebygd tankeprosess; komplekse forespørsler begrunnes før generering.
A

Claude Opus 4.6

Inndata:$4/M
Utdata:$20/M
Claude Opus 4.6 er en stor språkmodell i «Opus»-klassen fra Anthropic, lansert i februar 2026. Den er posisjonert som en arbeidshest for arbeidsflyter innen kunnskapsarbeid og forskning — med forbedringer i resonnering over lange kontekster, flertrinns planlegging, verktøybruk (inkludert agentbaserte programvarearbeidsflyter) og oppgaver på datamaskin, som automatisk generering av lysbilder og regneark.
A

Claude Sonnet 4.6

Inndata:$2.4/M
Utdata:$12/M
Claude Sonnet 4.6 er vår mest kapable Sonnet-modell hittil. Det er en fullstendig oppgradering av modellens ferdigheter innen koding, bruk av datamaskin, resonnering over lange kontekster, agentplanlegging, kunnskapsarbeid og design. Sonnet 4.6 har også et kontekstvindu på 1M token i beta.
O

GPT-5.4 nano

Inndata:$0.16/M
Utdata:$1/M
GPT-5.4 nano er utviklet for oppgaver der hastighet og kostnader er viktigst, som klassifisering, datauttrekk, rangering og underagenter.
O

GPT-5.4 mini

Inndata:$0.6/M
Utdata:$3.6/M
GPT-5.4 mini bringer styrkene fra GPT-5.4 til en raskere, mer effektiv modell, designet for arbeidslaster i stor skala.
A

Claude Mythos Preview

A

Claude Mythos Preview

Kommer snart
Inndata:$60/M
Utdata:$240/M
Claude Mythos Preview er vår mest kapable frontier-modell til dags dato, og viser et markant sprang i resultater på mange evalueringsbenchmarker sammenlignet med vår forrige frontier-modell, Claude Opus 4.6.