ModelleSupportUnternehmenBlog
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Ressourcen
KI-ModelleBlogUnternehmenÄnderungsprotokollÜber uns
2025 CometAPI. Alle Rechte vorbehalten.DatenschutzrichtlinieNutzungsbedingungen
Home/Models/OpenAI/tts-1
O

tts-1

Eingabe:$12/M
Ausgabe:$12/M
Kommerzielle Nutzung
Überblick
Funktionen
Preisgestaltung
API

Technical Specifications of tts-1

SpecificationDetails
Model IDtts-1
ProviderOpenAI
Model typeText-to-speech (TTS) model for converting text input into spoken audio.
Primary optimizationOptimized for speed and low-latency generation, especially for realtime or near-realtime speech output.
Quality profileLower latency than tts-1-hd, but with lower audio quality than the HD variant.
Input modalityText only.
Output modalityAudio only.
API endpointOpenAI Audio API speech generation endpoint: /v1/audio/speech.
Max input lengthUp to 4096 characters per request.
Supported response formatsmp3, opus, aac, flac, wav, pcm.
Speed controlSupported from 0.25 to 4.0, with 1.0 as default.
Voice options for tts-1alloy, ash, coral, echo, fable, onyx, nova, sage, shimmer.
Streaming supportThe Speech API supports streaming audio output, but SSE streaming and instruction-based voice control are not supported for tts-1.
PricingOpenAI lists tts-1 at $15 per 1M tokens for speech generation.

What is tts-1?

tts-1 is OpenAI’s text-to-speech model designed to turn written text into natural-sounding spoken audio. It is positioned as the faster, lower-latency option among OpenAI’s classic TTS models, making it suitable for applications that need quick speech synthesis rather than the highest possible fidelity.

Developers typically use tts-1 through the Audio API’s speech generation endpoint when they want to convert application text, prompts, notifications, narrations, or assistant responses into playable audio files. OpenAI’s documentation describes it as optimized for realtime text-to-speech use cases.

In practice, tts-1 is a good fit for lightweight voice experiences, rapid response systems, interactive prototypes, and products where responsiveness matters more than premium voice quality. If maximum quality is the priority, OpenAI points users toward tts-1-hd, while newer expressive use cases may use newer TTS models instead.

Main features of tts-1

  • Low-latency speech generation: tts-1 is specifically optimized for speed, which makes it useful for apps that need spoken output quickly.
  • Natural-sounding text-to-speech: The model converts plain text into spoken audio suitable for narration, assistant responses, and voice interfaces.
  • Multiple built-in voices: tts-1 supports a set of built-in voices including alloy, ash, coral, echo, fable, onyx, nova, sage, and shimmer.
  • Flexible audio output formats: Developers can request generated audio in common formats such as MP3, WAV, FLAC, AAC, Opus, and PCM depending on playback or processing needs.
  • Adjustable playback speed: The API allows speed control from 0.25x to 4.0x, enabling slower narration or faster playback where appropriate.
  • Simple API-based integration: tts-1 is available through the standard speech generation API, which makes it straightforward to integrate into web, mobile, or backend workflows.
  • Good for realtime-oriented applications: OpenAI explicitly frames tts-1 as a model for realtime text-to-speech scenarios, which makes it practical for assistants, notifications, and fast interactive systems.
  • Tradeoff-focused model choice: Compared with tts-1-hd, this model prioritizes faster generation over higher-fidelity output, giving developers a clear latency-versus-quality option.

How to access and integrate tts-1

Step 1: Sign Up for API Key

To access the tts-1 API, first sign up on CometAPI and generate your API key from the dashboard. After logging in, create a new key, copy it securely, and store it in your application environment variables. You will use this key to authenticate all requests to the tts-1 API.

Step 2: Send Requests to tts-1 API

Once you have your API key, send a POST request to the CometAPI endpoint for tts-1 with your input payload. Include your API key in the Authorization header and specify tts-1 as the model. A typical request includes the input text plus TTS parameters such as voice and response format.

curl https://api.cometapi.com/v1/audio/speech \
  -H "Authorization: Bearer $COMETAPI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "tts-1",
    "input": "Welcome to CometAPI text to speech.",
    "voice": "alloy",
    "response_format": "mp3"
  }' \
  --output speech.mp3

Step 3: Retrieve and Verify Results

After submitting your request, the tts-1 API returns generated audio content if the call succeeds. Save the returned file or stream, verify that the audio plays correctly, and confirm that the selected voice, speed, and format match your application requirements. If needed, retry with adjusted parameters to improve the final output.

Funktionen für tts-1

Entdecken Sie die wichtigsten Funktionen von tts-1, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für tts-1

Entdecken Sie wettbewerbsfähige Preise für tts-1, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie tts-1 Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$12/M
Ausgabe:$12/M
Eingabe:$15/M
Ausgabe:$15/M
-20%

Beispielcode und API für tts-1

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für tts-1 zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von tts-1 in Ihren Projekten zu nutzen.

Weitere Modelle

G

Nano Banana 2

Eingabe:$0.4/M
Ausgabe:$2.4/M
Überblick über die Kernfunktionen: Auflösung: Bis zu 4K (4096×4096), gleichauf mit Pro. Konsistenz von Referenzbildern: Bis zu 14 Referenzbilder (10 Objekte + 4 Charaktere), wobei Stil-/Charakterkonsistenz beibehalten wird. Extreme Seitenverhältnisse: Neue 1:4, 4:1, 1:8, 8:1-Verhältnisse hinzugefügt, geeignet für lange Bilder, Poster und Banner. Textdarstellung: Fortgeschrittene Textgenerierung, geeignet für Infografiken und Marketing-Poster-Layouts. Sucherweiterung: Integrierte Google Search + Image Search. Fundierung: Integrierter Denkprozess; komplexe Prompts werden vor der Generierung logisch hergeleitet.
A

Claude Opus 4.6

Eingabe:$4/M
Ausgabe:$20/M
Claude Opus 4.6 ist das Großsprachmodell der „Opus“-Klasse von Anthropic, veröffentlicht im Februar 2026. Es ist als Arbeitstier für Wissensarbeit und Forschungs-Workflows positioniert — mit Verbesserungen beim langkontextuellen Denken, bei der mehrstufigen Planung, bei der Tool-Nutzung (einschließlich agentenbasierter Software-Workflows) sowie bei computerbezogenen Aufgaben wie der automatisierten Erstellung von Folien und Tabellen.
A

Claude Sonnet 4.6

Eingabe:$2.4/M
Ausgabe:$12/M
Claude Sonnet 4.6 ist unser bisher leistungsfähigstes Sonnet-Modell. Es ist ein umfassendes Upgrade der Fähigkeiten des Modells in den Bereichen Programmierung, Computernutzung, Schlussfolgern mit langem Kontext, Agentenplanung, Wissensarbeit und Design. Sonnet 4.6 bietet außerdem ein 1M-Token-Kontextfenster in Beta.
O

GPT-5.4 nano

Eingabe:$0.16/M
Ausgabe:$1/M
GPT-5.4 nano ist für Aufgaben konzipiert, bei denen Geschwindigkeit und Kosten am wichtigsten sind, wie Klassifizierung, Datenextraktion, Ranking und Sub-Agenten.
O

GPT-5.4 mini

Eingabe:$0.6/M
Ausgabe:$3.6/M
GPT-5.4 mini bringt die Stärken von GPT-5.4 in ein schnelleres, effizienteres Modell, das für hochvolumige Workloads konzipiert ist.
A

Claude Mythos Preview

A

Claude Mythos Preview

Demnächst verfügbar
Eingabe:$60/M
Ausgabe:$240/M
Claude Mythos Preview ist unser bisher leistungsfähigstes Frontier-Modell und zeigt einen bemerkenswerten Sprung bei den Ergebnissen in vielen Evaluations-Benchmarks im Vergleich zu unserem vorherigen Frontier-Modell, Claude Opus 4.6.

Verwandte Blogs

Kann ChatGPT Text in Sprache umwandeln? Der neueste Leitfaden 2026 zu Voice- und TTS-Modellen
Apr 2, 2026

Kann ChatGPT Text in Sprache umwandeln? Der neueste Leitfaden 2026 zu Voice- und TTS-Modellen

ChatGPT unterstützt Text-to-Speech, aber die Antwort hängt davon ab, was Sie meinen. In der ChatGPT-App lässt Voice ChatGPT laut sprechen und wurde kürzlich aktualisiert, um Anweisungen besser zu befolgen und Tools wie die Websuche effektiver zu nutzen. Für Entwickler bietet OpenAI außerdem eine dedizierte Text-to-Speech-API über den audio/speech-Endpunkt, mit Modellen wie gpt-4o-mini-tts, tts-1 und tts-1-hd. OpenAI sagt, dass sein neuester TTS-Snapshot auf Common Voice und FLEURS eine gegenüber der vorherigen Generation um etwa 35% niedrigere Wortfehlerrate geliefert hat.