ModèlesTarificationEntreprise
500+ API de modèles IA, toutes en une seule API. Simplement avec CometAPI
API des modèles
Développeur
Démarrage rapideDocumentationTableau de bord API
Entreprise
À proposEntreprise
Ressources
Modèles d'IABlogJournal des modificationsSupport
Conditions d'utilisationPolitique de confidentialité
© 2026 CometAPI · All rights reserved
Home/Models/OpenAI/omni-moderation-latest
O

omni-moderation-latest

Par requête:$0.0016
Usage commercial
Aperçu
Fonctionnalités
Tarification
API

Technical Specifications of omni-moderation-latest

AttributeDetails
Model IDomni-moderation-latest
ProviderOpenAI
Model typeModeration model for safety classification
Primary use caseDetecting potentially harmful content in user inputs or model outputs
Supported inputsText and images
Output typeStructured moderation results in text/JSON form, including flags, categories, and scores
EndpointModerations API
Multimodal supportYes; supports multi-modal input objects, including image URLs or base64 image data
Default/latest statusOpenAI documents it as the latest omni moderation model and the recommended choice for new moderation integrations
Legacy alternativetext-moderation-latest is the older text-only option with fewer categorizations
Performance profileOpenAI lists it as high-performance moderation with medium speed
PricingOpenAI describes moderation models as free models

What is omni-moderation-latest?

omni-moderation-latest is OpenAI’s current moderation model for identifying unsafe or policy-sensitive content in text and images. It is designed for developers who need to screen user prompts, uploaded media, or model-generated outputs before those items are shown to end users or passed into downstream systems.

OpenAI introduced omni-moderation-latest as a multimodal upgrade to earlier moderation models. According to OpenAI’s documentation, it is more capable than legacy text-only moderation options, supports broader categorization, and is the best choice for new applications using the moderation endpoint.

In practice, teams use omni-moderation-latest for input moderation, output moderation, trust-and-safety pipelines, forum filtering, social content review, and abuse detection workflows where fast automated triage is needed before human review or enforcement logic. This is an application-level inference based on OpenAI’s moderation guidance and API design.

Main features of omni-moderation-latest

  • Multimodal moderation: The model accepts both text and image inputs, making it suitable for modern applications that need to evaluate user messages alongside uploaded visual content.
  • Broader safety categorization: OpenAI states that the omni moderation family supports more categorization options than legacy text moderation models.
  • Structured safety output: Responses include a moderation object with fields such as flagged, category labels, and category scores, which makes it easier to automate allow, block, review, or escalation logic.
  • Improved accuracy: OpenAI reported that omni-moderation-latest is more accurate than the previous moderation generation, especially for non-English content.
  • Image-aware classification support: The API can ingest image URLs or base64-encoded image data as moderation inputs, enabling screening of uploaded or linked visual assets.
  • Best fit for new integrations: OpenAI’s moderation guide explicitly recommends the newer omni moderation models for new applications rather than the legacy text-only model family.
  • Free moderation usage from the provider side: OpenAI’s model listing describes moderation models as free, which can make them attractive for large-scale safety filtering workflows.

How to access and integrate omni-moderation-latest

Step 1: Sign Up for API Key

To start using omni-moderation-latest, first sign up on CometAPI and generate your API key from the dashboard. After creating the key, store it securely in an environment variable such as COMETAPI_API_KEY. This key will be used to authenticate every request you send to the model.

Step 2: Send Requests to omni-moderation-latest API

Once you have your API key, you can call the OpenAI-compatible chat endpoint on CometAPI while specifying omni-moderation-latest as the model. Example:

curl https://api.cometapi.com/v1/moderations \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_API_KEY" \
  -d '{
    "model": "omni-moderation-latest",
    "input": "Sample text to classify for safety."
  }'

You can also send multimodal moderation input when your workflow includes images, provided your client and request format follow the upstream moderation schema supported by the model. OpenAI’s moderation API documentation shows that omni-moderation-latest supports text strings, arrays of strings, and multi-modal input objects.

Step 3: Retrieve and Verify Results

The API response will return a moderation result object containing the model used, a flagged decision, category-level labels, and category scores. After receiving the response, verify whether the content crosses your application’s policy threshold before allowing it into your product flow. For production use, many teams combine automated thresholding with logging, manual review queues, and policy-specific business rules.

Fonctionnalités pour omni-moderation-latest

Découvrez les fonctionnalités clés de omni-moderation-latest, conçues pour améliorer les performances et la facilité d'utilisation. Explorez comment ces capacités peuvent bénéficier à vos projets et améliorer l'expérience utilisateur.

Tarification pour omni-moderation-latest

Découvrez des tarifs compétitifs pour omni-moderation-latest, conçus pour s'adapter à différents budgets et besoins d'utilisation. Nos formules flexibles garantissent que vous ne payez que ce que vous utilisez, ce qui facilite l'adaptation à mesure que vos besoins évoluent. Découvrez comment omni-moderation-latest peut améliorer vos projets tout en maîtrisant les coûts.
Prix de Comet (USD / M Tokens)Prix officiel (USD / M Tokens)Remise
Par requête:$0.0016
Par requête:$0.002
-20%

Exemple de code et API pour omni-moderation-latest

Accédez à des exemples de code complets et aux ressources API pour omni-moderation-latest afin de simplifier votre processus d'intégration. Notre documentation détaillée fournit des instructions étape par étape pour vous aider à exploiter tout le potentiel de omni-moderation-latest dans vos projets.

Plus de modèles

O

GPT Image 2

Entrée:$6.4/M
Sortie:$24/M
GPT Image 2 est le modèle de génération d’images de pointe d’OpenAI, conçu pour une génération et une édition d’images rapides et de haute qualité. Il prend en charge des tailles d’images flexibles et des entrées d’images haute fidélité.
D

Doubao-Seedance-2-0

Par Seconde:$0.07
Seedance 2.0 est le modèle de fondation vidéo multimodal de nouvelle génération de ByteDance, axé sur la génération de vidéos narratives cinématographiques à plusieurs plans. Contrairement aux démonstrations texte-vers-vidéo à plan unique, Seedance 2.0 met l’accent sur un contrôle basé sur des références (images, clips courts, audio), la cohérence des personnages et des styles d’un plan à l’autre, ainsi qu’une synchronisation audio/vidéo native — visant à rendre la vidéo générée par IA utile aux workflows professionnels de création et de prévisualisation.
C

Claude Opus 4.7

Entrée:$3/M
Sortie:$15/M
Le modèle le plus intelligent pour les agents et la programmation
A

Claude Sonnet 4.6

Entrée:$2.4/M
Sortie:$12/M
Claude Sonnet 4.6 est notre modèle Sonnet le plus performant à ce jour. Il s’agit d’une mise à niveau complète des capacités du modèle dans la programmation, l’usage de l’ordinateur, le raisonnement sur des contextes étendus, la planification d’agents, le travail intellectuel et la conception. Sonnet 4.6 propose également une fenêtre de contexte de 1M de jetons en bêta.
O

GPT 5.5 Pro

Entrée:$24/M
Sortie:$144/M
Un modèle avancé conçu pour une complexité logique extrême et des exigences professionnelles, représentant le plus haut niveau de raisonnement profond et de capacités d'analyse précises.
O

GPT 5.5

Entrée:$4/M
Sortie:$24/M
Un modèle phare multimodal de nouvelle génération alliant des performances exceptionnelles à une réactivité efficace, dédié à la fourniture de services d’IA polyvalents, complets et stables.