ModelleSupportUnternehmenBlog
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Ressourcen
KI-ModelleBlogUnternehmenÄnderungsprotokollÜber uns
2025 CometAPI. Alle Rechte vorbehalten.DatenschutzrichtlinieNutzungsbedingungen
Home/Models/OpenAI/o1-mini-2024-09-12
O

o1-mini-2024-09-12

Eingabe:$0.88/M
Ausgabe:$3.52/M
Kommerzielle Nutzung
Überblick
Funktionen
Preisgestaltung
API

Technical Specifications of o1-mini-2024-09-12

SpecificationDetails
Model IDo1-mini-2024-09-12
ProviderOpenAI
Model familyo1 series reasoning model
Release snapshotSeptember 12, 2024 snapshot of o1-mini
Primary modalityText input, text output
Core strengthCost-efficient reasoning, especially for STEM, math, and coding tasks
Relative positioningFaster and lower-cost than o1-preview, with strong performance on coding-oriented reasoning workloads
Training approachReinforcement-learning-based reasoning model designed to spend more time thinking before responding
Availability statusSnapshot listed by OpenAI as deprecated

What is o1-mini-2024-09-12?

o1-mini-2024-09-12 is a snapshot of OpenAI’s o1-mini reasoning model, released on September 12, 2024. It belongs to the o1 family, which OpenAI introduced as models that “think before they answer” and are optimized for complex reasoning rather than only fast next-token generation.

Compared with larger o1 variants, o1-mini was positioned as the faster and more economical option for workloads that need strong reasoning without requiring the broadest possible world knowledge. OpenAI specifically highlighted its usefulness for STEM-heavy applications, noting that it performs especially well in math and coding and was designed as a cost-efficient alternative to o1-preview.

In practical terms, this makes o1-mini-2024-09-12 a good fit for developers building applications such as code assistants, technical problem-solving tools, structured analytical workflows, and math-focused copilots. Because this exact snapshot is now marked deprecated in OpenAI’s model documentation, teams using the CometAPI identifier should verify ongoing compatibility and behavior in their own environment.

Main features of o1-mini-2024-09-12

  • Reasoning-first design: OpenAI describes the o1 series as models trained to perform complex reasoning and to spend more time thinking before responding, which can improve performance on multi-step technical tasks.
  • Strong STEM performance: o1-mini was explicitly introduced as excelling at STEM workloads, especially math and coding, making it suitable for engineering and analytical use cases.
  • Lower cost profile: OpenAI stated that o1-mini launched at a significantly lower cost than o1-preview, positioning it as the more budget-friendly reasoning option.
  • Faster response characteristics: The model was presented as faster than o1-preview, which is useful when balancing reasoning quality with latency-sensitive application needs.
  • Good fit for coding applications: OpenAI’s release materials and system documentation repeatedly describe o1-mini as particularly effective for coding-related tasks.
  • Snapshot stability: Using the exact snapshot ID o1-mini-2024-09-12 can help teams target a fixed model version for reproducibility, though OpenAI currently labels this snapshot as deprecated.

How to access and integrate o1-mini-2024-09-12

Step 1: Sign Up for API Key

To access o1-mini-2024-09-12, first create an account on CometAPI and generate an API key from the dashboard. Once you have your key, store it securely as an environment variable so your application can authenticate requests to the API.

Step 2: Send Requests to o1-mini-2024-09-12 API

After getting your API key, send requests to CometAPI’s OpenAI-compatible endpoint while setting the model field to o1-mini-2024-09-12.

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_API_KEY" \
  -d '{
    "model": "o1-mini-2024-09-12",
    "input": "Write a Python function that solves a quadratic equation and explain the math."
  }'

You can also use the OpenAI SDK format by pointing the client to CometAPI’s base URL and keeping the model name as o1-mini-2024-09-12.

from openai import OpenAI

client = OpenAI(
    api_key="YOUR_COMETAPI_KEY",
    base_url="https://api.cometapi.com/v1"
)

response = client.responses.create(
    model="o1-mini-2024-09-12",
    input="Solve this step by step: If 3x + 5 = 20, what is x?"
)

print(response)

Step 3: Retrieve and Verify Results

Once the API returns a response, parse the output text in your application and validate it for your use case. For reasoning-heavy tasks such as coding, mathematics, or technical analysis, it is a good practice to add automated checks, test cases, or human review to verify that the model’s conclusions are correct before using them in production.

Funktionen für o1-mini-2024-09-12

Entdecken Sie die wichtigsten Funktionen von o1-mini-2024-09-12, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für o1-mini-2024-09-12

Entdecken Sie wettbewerbsfähige Preise für o1-mini-2024-09-12, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie o1-mini-2024-09-12 Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$0.88/M
Ausgabe:$3.52/M
Eingabe:$1.1/M
Ausgabe:$4.4/M
-20%

Beispielcode und API für o1-mini-2024-09-12

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für o1-mini-2024-09-12 zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von o1-mini-2024-09-12 in Ihren Projekten zu nutzen.

Weitere Modelle

G

Nano Banana 2

Eingabe:$0.4/M
Ausgabe:$2.4/M
Überblick über die Kernfunktionen: Auflösung: Bis zu 4K (4096×4096), gleichauf mit Pro. Konsistenz von Referenzbildern: Bis zu 14 Referenzbilder (10 Objekte + 4 Charaktere), wobei Stil-/Charakterkonsistenz beibehalten wird. Extreme Seitenverhältnisse: Neue 1:4, 4:1, 1:8, 8:1-Verhältnisse hinzugefügt, geeignet für lange Bilder, Poster und Banner. Textdarstellung: Fortgeschrittene Textgenerierung, geeignet für Infografiken und Marketing-Poster-Layouts. Sucherweiterung: Integrierte Google Search + Image Search. Fundierung: Integrierter Denkprozess; komplexe Prompts werden vor der Generierung logisch hergeleitet.
A

Claude Opus 4.6

Eingabe:$4/M
Ausgabe:$20/M
Claude Opus 4.6 ist das Großsprachmodell der „Opus“-Klasse von Anthropic, veröffentlicht im Februar 2026. Es ist als Arbeitstier für Wissensarbeit und Forschungs-Workflows positioniert — mit Verbesserungen beim langkontextuellen Denken, bei der mehrstufigen Planung, bei der Tool-Nutzung (einschließlich agentenbasierter Software-Workflows) sowie bei computerbezogenen Aufgaben wie der automatisierten Erstellung von Folien und Tabellen.
A

Claude Sonnet 4.6

Eingabe:$2.4/M
Ausgabe:$12/M
Claude Sonnet 4.6 ist unser bisher leistungsfähigstes Sonnet-Modell. Es ist ein umfassendes Upgrade der Fähigkeiten des Modells in den Bereichen Programmierung, Computernutzung, Schlussfolgern mit langem Kontext, Agentenplanung, Wissensarbeit und Design. Sonnet 4.6 bietet außerdem ein 1M-Token-Kontextfenster in Beta.
O

GPT-5.4 nano

Eingabe:$0.16/M
Ausgabe:$1/M
GPT-5.4 nano ist für Aufgaben konzipiert, bei denen Geschwindigkeit und Kosten am wichtigsten sind, wie Klassifizierung, Datenextraktion, Ranking und Sub-Agenten.
O

GPT-5.4 mini

Eingabe:$0.6/M
Ausgabe:$3.6/M
GPT-5.4 mini bringt die Stärken von GPT-5.4 in ein schnelleres, effizienteres Modell, das für hochvolumige Workloads konzipiert ist.
A

Claude Mythos Preview

A

Claude Mythos Preview

Demnächst verfügbar
Eingabe:$60/M
Ausgabe:$240/M
Claude Mythos Preview ist unser bisher leistungsfähigstes Frontier-Modell und zeigt einen bemerkenswerten Sprung bei den Ergebnissen in vielen Evaluations-Benchmarks im Vergleich zu unserem vorherigen Frontier-Modell, Claude Opus 4.6.