API GPT-OSS-120B

CometAPI
AnnaAug 7, 2025
API GPT-OSS-120B

OpenAI's gpt-oss-120b marque la première version ouverte de l'organisation depuis GPT-2, offrant aux développeurs communication , personnalisableset haute performance Capacités d'IA sous le Licence Apache 2.0Conçu pour les personnes sophistiquées raisonnement et agentique applications, ce modèle démocratise l'accès aux technologies avancées à grand langage, permettant un déploiement sur site et un réglage fin en profondeur.

Caractéristiques principales et philosophie de conception

Les modèles GPT‑OSS sont conçus comme des LLM à usage général, exclusivement textuels. Ils prennent en charge des tâches cognitives de haut niveau, notamment le raisonnement mathématique, l'analyse structurée et la compréhension du langage. Contrairement aux modèles commerciaux fermés tels que GPT‑4, GPT‑OSS permet le téléchargement et l'utilisation complets des pondérations des modèles, offrant aux chercheurs et aux développeurs un accès sans précédent pour inspecter, affiner et déployer des modèles entièrement sur leur infrastructure.

Information basique

  • Paramètres: 117 milliards au total, 5.1 milliards infection via Mélange d'experts (MoE)
  • Licence: Apache 2.0 pour une utilisation commerciale et académique sans restriction
  • Fenêtre contextuelle: Jusqu'à 128 XNUMX jetons, prenant en charge les entrées longues et le raisonnement multi-documents
  • Chaîne de pensée: Plein CoT sorties pour l'auditabilité et le contrôle précis
  • Résultats structurés: Prise en charge native de JSON, XML et des schémas personnalisés.

Détails techniques

GPT-OSS s'appuie sur un transformateur colonne vertébrale augmentée d'un Mélange d'experts (MoE) architecture pour obtenir une activation parcimonieuse et réduire les coûts d'inférence. gpt-oss-120b le modèle contient Experts 128 répartis sur Couches 36, activation 4 experts par jeton (5.1 B paramètres actifs), tandis que gpt-oss-20b utilise Experts 32 plus de Couches 24, activation 4 experts par jeton (3.6 B paramètres actifs). Il emploie attention alternée dense et localement bandée clairsemée, attention multi-requêtes groupées (taille du groupe 8) et soutenir un 128 k Fenêtre de contexte de jeton : inégalée à ce jour parmi les offres open-weight. L'efficacité de la mémoire est encore améliorée grâce à la quantification à précision mixte 4 bits, permettant des contextes plus larges sur du matériel standard.

Les modèles GPT-OSS ont fait l’objet d’une analyse comparative rigoureuse par rapport à des ensembles de données bien connus, révélant des performances compétitives, voire supérieures, par rapport aux modèles propriétaires de taille similaire.

Analyse comparative et évaluation des performances

Sur les repères standards, gpt-oss-120b correspond ou dépasse les spécifications propriétaires d'OpenAI o4-mini modèle:

  • MMLU (Compréhension massive du langage multitâche): ~88% de précision
  • Codeforces Elo (raisonnement de codage): ~ 2205
  • AIME (concours de mathématiques avec outils): ~ 87.9%
  • HealthBench:Surpasse considérablement l'o4-mini dans les tâches d'assurance qualité clinique et de diagnostic
  • Tau-Bench (tâches de vente au détail et de raisonnement): ~62% en moyenne

Version du modèle

  • Variante par défaut: gpt-oss-120b (V1.0)
  • Paramètres actifs: 5.1 B (sélection dynamique du MoE)
  • Publications de suivi: Correctifs prévus pour améliorer filtres de sécurité et réglage fin de domaine spécialisé

Limites

Malgré leur puissance, les modèles GPT-OSS présentent certaines limitations :

  • Interface texte uniquement:Contrairement à GPT-4o ou Gemini, GPT‑OSS ne prend pas en charge les entrées multimodales (images, audio, vidéo).
  • Aucune transparence de l'ensemble d'entraînement:OpenAI n'a pas publié de détails sur les ensembles de données spécifiques utilisés, ce qui peut soulever des inquiétudes quant à la reproductibilité académique ou à l'audit des biais.
  • Incohérence des performances:Certains benchmarks communautaires (par exemple, Simple-Bench) rapportent de mauvais résultats dans des tests de raisonnement spécifiques (~22 % sur certaines tâches pour 120b), ce qui suggère les performances peuvent varier considérablement selon les domaines.
  • Limitations matérielles:Le modèle 120B nécessite un calcul important pour l'inférence locale, ce qui le rend inaccessible aux développeurs occasionnels sans accès GPU.
  • Compromis de sécurité:Bien que testés dans des scénarios de réglage fin contradictoires, la nature ouverte de ces modèles signifie qu'ils peuvent toujours être utilisés à mauvais escient (par exemple, pour le spam, la désinformation ou les jailbreaks de modèles) s'ils ne sont pas correctement gouvernés.

Néanmoins, OpenAI rapporte que les modèles gpt-oss ne soulèvent pas de risques de sécurité actuels au niveau des frontières, notamment dans les domaines du biorisque ou de la cybersécurité.

Comment appeler gpt-oss-120b API de CometAPI

gpt-oss-120b Tarification de l'API dans CometAPI, 20 % de réduction sur le prix officiel :

Jetons d'entrée$0.16
Jetons de sortie$0.80

Étapes requises

  • Se connecter à cometapi.comSi vous n'êtes pas encore notre utilisateur, veuillez d'abord vous inscrire
  • Obtenez la clé API d'accès à l'interface. Cliquez sur « Ajouter un jeton » au niveau du jeton API dans l'espace personnel, récupérez la clé : sk-xxxxx et validez.
  • Obtenez l'URL de ce site : https://api.cometapi.com/

Utiliser la méthode

  1. Sélectionnez le «gpt-oss-120bPoint de terminaison pour envoyer la requête API et définir le corps de la requête. La méthode et le corps de la requête sont disponibles dans la documentation API de notre site web. Notre site web propose également le test Apifox pour plus de commodité.
  2. Remplacer avec votre clé CometAPI réelle de votre compte.
  3. Insérez votre question ou demande dans le champ de contenu : c'est à cela que le modèle répondra.
  4. Traitez la réponse de l'API pour obtenir la réponse générée.

CometAPI fournit une API REST entièrement compatible, pour une migration fluide. Informations clés  API doc:

  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Paramètre de modèle: gpt-oss-120b
  • Authentification: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .
  • Paramètres de basepromptmax_tokens_to_sampletemperaturestop_sequences

Bien que GPT-OSS puisse être utilisé entièrement hors ligne, il prend également en charge API de chat compatibles avec OpenAI lorsqu'il est hébergé sur des services comme Hugging Face ou AWS Bedrock.

Voici un exemple d’intégration utilisant Python :

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.cometapi.com/v1/chat/completions",  # or AWS/Azure provider

    api_key=cometapi_key
)

response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "Explain how quantum tunneling works."}
    ]
)

print(response.choices.message.content)

Alternativement, vous pouvez exécuter les modèles localement à l’aide d’outils tels que Déploiement LMD, Inférence de génération de texte (TGI), ou vLLM.

Voir aussi GPT-OSS-20B

SHARE THIS BLOG

500+ Modèles en Une API

Jusqu'à 20% de réduction