ModellePreiseUnternehmen
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Unternehmen
Über unsUnternehmen
Ressourcen
KI-ModelleBlogÄnderungsprotokollSupport
NutzungsbedingungenDatenschutzrichtlinie
© 2026 CometAPI · All rights reserved
Home/Models/OpenAI/omni-moderation-latest
O

omni-moderation-latest

Pro Anfrage:$0.0016
Kommerzielle Nutzung
Überblick
Funktionen
Preisgestaltung
API

Technical Specifications of omni-moderation-latest

AttributeDetails
Model IDomni-moderation-latest
ProviderOpenAI
Model typeModeration model for safety classification
Primary use caseDetecting potentially harmful content in user inputs or model outputs
Supported inputsText and images
Output typeStructured moderation results in text/JSON form, including flags, categories, and scores
EndpointModerations API
Multimodal supportYes; supports multi-modal input objects, including image URLs or base64 image data
Default/latest statusOpenAI documents it as the latest omni moderation model and the recommended choice for new moderation integrations
Legacy alternativetext-moderation-latest is the older text-only option with fewer categorizations
Performance profileOpenAI lists it as high-performance moderation with medium speed
PricingOpenAI describes moderation models as free models

What is omni-moderation-latest?

omni-moderation-latest is OpenAI’s current moderation model for identifying unsafe or policy-sensitive content in text and images. It is designed for developers who need to screen user prompts, uploaded media, or model-generated outputs before those items are shown to end users or passed into downstream systems.

OpenAI introduced omni-moderation-latest as a multimodal upgrade to earlier moderation models. According to OpenAI’s documentation, it is more capable than legacy text-only moderation options, supports broader categorization, and is the best choice for new applications using the moderation endpoint.

In practice, teams use omni-moderation-latest for input moderation, output moderation, trust-and-safety pipelines, forum filtering, social content review, and abuse detection workflows where fast automated triage is needed before human review or enforcement logic. This is an application-level inference based on OpenAI’s moderation guidance and API design.

Main features of omni-moderation-latest

  • Multimodal moderation: The model accepts both text and image inputs, making it suitable for modern applications that need to evaluate user messages alongside uploaded visual content.
  • Broader safety categorization: OpenAI states that the omni moderation family supports more categorization options than legacy text moderation models.
  • Structured safety output: Responses include a moderation object with fields such as flagged, category labels, and category scores, which makes it easier to automate allow, block, review, or escalation logic.
  • Improved accuracy: OpenAI reported that omni-moderation-latest is more accurate than the previous moderation generation, especially for non-English content.
  • Image-aware classification support: The API can ingest image URLs or base64-encoded image data as moderation inputs, enabling screening of uploaded or linked visual assets.
  • Best fit for new integrations: OpenAI’s moderation guide explicitly recommends the newer omni moderation models for new applications rather than the legacy text-only model family.
  • Free moderation usage from the provider side: OpenAI’s model listing describes moderation models as free, which can make them attractive for large-scale safety filtering workflows.

How to access and integrate omni-moderation-latest

Step 1: Sign Up for API Key

To start using omni-moderation-latest, first sign up on CometAPI and generate your API key from the dashboard. After creating the key, store it securely in an environment variable such as COMETAPI_API_KEY. This key will be used to authenticate every request you send to the model.

Step 2: Send Requests to omni-moderation-latest API

Once you have your API key, you can call the OpenAI-compatible chat endpoint on CometAPI while specifying omni-moderation-latest as the model. Example:

curl https://api.cometapi.com/v1/moderations \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_API_KEY" \
  -d '{
    "model": "omni-moderation-latest",
    "input": "Sample text to classify for safety."
  }'

You can also send multimodal moderation input when your workflow includes images, provided your client and request format follow the upstream moderation schema supported by the model. OpenAI’s moderation API documentation shows that omni-moderation-latest supports text strings, arrays of strings, and multi-modal input objects.

Step 3: Retrieve and Verify Results

The API response will return a moderation result object containing the model used, a flagged decision, category-level labels, and category scores. After receiving the response, verify whether the content crosses your application’s policy threshold before allowing it into your product flow. For production use, many teams combine automated thresholding with logging, manual review queues, and policy-specific business rules.

Funktionen für omni-moderation-latest

Entdecken Sie die wichtigsten Funktionen von omni-moderation-latest, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für omni-moderation-latest

Entdecken Sie wettbewerbsfähige Preise für omni-moderation-latest, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie omni-moderation-latest Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Pro Anfrage:$0.0016
Pro Anfrage:$0.002
-20%

Beispielcode und API für omni-moderation-latest

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für omni-moderation-latest zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von omni-moderation-latest in Ihren Projekten zu nutzen.

Weitere Modelle

O

GPT Image 2

Eingabe:$6.4/M
Ausgabe:$24/M
GPT Image 2 ist das Bildgenerierungsmodell von openai auf dem neuesten Stand der Technik für schnelle, hochwertige Bildgenerierung und -bearbeitung. Es unterstützt flexible Bildgrößen und Bildeingaben mit hoher Wiedergabetreue.
D

Doubao-Seedance-2-0

Pro Sekunde:$0.07
Seedance 2.0 ist das multimodale Video‑Foundation‑Modell der nächsten Generation von ByteDance, das auf filmische, narrative Videogenerierung mit mehreren Einstellungen fokussiert ist. Im Unterschied zu Text‑zu‑Video‑Demos mit nur einer Einstellung betont Seedance 2.0 referenzbasierte Steuerung (Bilder, kurze Clips, Audio), kohärente Figuren‑ und Stilkonsistenz über Einstellungen hinweg sowie native Audio-/Video‑Synchronisation — mit dem Ziel, KI‑Video für professionelle Kreativ- und Previsualisierungs‑Workflows nutzbar zu machen.
C

Claude Opus 4.7

Eingabe:$3/M
Ausgabe:$15/M
Das intelligenteste Modell für Agenten und Programmierung
A

Claude Sonnet 4.6

Eingabe:$2.4/M
Ausgabe:$12/M
Claude Sonnet 4.6 ist unser bisher leistungsfähigstes Sonnet-Modell. Es ist ein umfassendes Upgrade der Fähigkeiten des Modells in den Bereichen Programmierung, Computernutzung, Schlussfolgern mit langem Kontext, Agentenplanung, Wissensarbeit und Design. Sonnet 4.6 bietet außerdem ein 1M-Token-Kontextfenster in Beta.
O

GPT 5.5 Pro

Eingabe:$24/M
Ausgabe:$144/M
Ein fortschrittliches Modell, das für äußerst komplexe Logik und professionelle Anforderungen entwickelt wurde und den höchsten Standard tiefgreifenden Schlussfolgerns und präziser analytischer Fähigkeiten repräsentiert.
O

GPT 5.5

Eingabe:$4/M
Ausgabe:$24/M
Ein multimodales Flaggschiffmodell der nächsten Generation, das außergewöhnliche Leistungsfähigkeit mit effizienter Antwortgenerierung vereint und der Bereitstellung umfassender und stabiler KI-Dienste für allgemeine Zwecke gewidmet ist.