API GPT-OSS-120B

CometAPI
AnnaAug 7, 2025
API GPT-OSS-120B

OpenAI's gpt-oss-120b marca el primer lanzamiento de peso abierto de la organización desde GPT-2, ofreciendo a los desarrolladores transparente, customizable e Alto rendimiento Capacidades de IA bajo la Licencia de Apache 2.0Diseñado para sofisticados razonamiento y agente Aplicaciones: este modelo democratiza el acceso a tecnologías avanzadas de lenguaje de gran tamaño, lo que permite la implementación local y un ajuste profundo.

Características principales y filosofía de diseño

Los modelos GPT-OSS están diseñados como LLM de propósito general, basados únicamente en texto. Admiten tareas cognitivas de alto nivel, como razonamiento matemático, análisis estructurado y comprensión del lenguaje. A diferencia de los modelos comerciales cerrados como GPT-4, GPT-OSS permite la descarga y el uso completo de las ponderaciones del modelo, lo que brinda a investigadores y desarrolladores un acceso sin precedentes para inspeccionar, ajustar e implementar modelos completamente en su infraestructura.

Información básica

  • Parámetros:117 mil millones en total, 5.1 mil millones activo vía Mezcla de expertos (MoE)
  • Licencia:Apache 2.0 para uso comercial y académico sin restricciones
  • Ventana de contexto: Hasta 128 K tokens, que admite entradas de formato largo y razonamiento de múltiples documentos
  • Cadena de pensamiento: Completo Cuna Salidas para auditabilidad y control detallado
  • Salidas estructuradas:Soporte nativo para JSON, XML y esquemas personalizados.

Detalles técnicos

GPT-OSS aprovecha una transformador columna vertebral aumentada con una Mezcla de expertos (MoE) arquitectura para lograr una activación dispersa y reducir los costos de inferencia. La gpt-oss-120b El modelo contiene Expertos de 128 distribuido a través capas 36, activando 4 expertos por token (5.1 B parámetros activos), mientras que gpt-oss-20b utiliza Expertos de 32 más del capas 24, activando 4 expertos por token (3.6 B parámetros activos). Se emplea Atención alternada densa y dispersa con bandas locales, atención de múltiples consultas agrupadas (tamaño del grupo 8), y apoyar a un 128 k Ventana de contexto de token: inigualable en ofertas de peso abierto hasta la fecha. La eficiencia de la memoria se mejora aún más mediante la **cuantización de precisión mixta de 4 bits**, lo que permite contextos más amplios en hardware estándar.

Los modelos GPT-OSS se han sometido a una evaluación comparativa rigurosa con conjuntos de datos conocidos, lo que revela un rendimiento competitivo, si no superior, en comparación con modelos propietarios de tamaño similar.

Evaluación comparativa y de desempeño

En los puntos de referencia estándar, gpt-oss-120b iguala o supera la propiedad de OpenAI o4-mini modelo:

  • MMLU (Comprensión masiva del lenguaje multitarea):~88% de precisión
  • Codeforces Elo (razonamiento de codificación): ~ 2205
  • AIME (concurso de matemáticas con herramientas): ~ 87.9%
  • Banco de salud:Supera significativamente a o4-mini en tareas de diagnóstico y control de calidad clínico.
  • Tau-Bench (Tareas de venta minorista y razonamiento):~62% en promedio

Versión del modelo

  • Variante predeterminada: gpt-oss-120b (V1.0)
  • Parámetros activos:5.1 B (selección dinámica de MoE)
  • Comunicados de seguimiento:Parches planificados para mejorar filtros de seguridad y ajuste fino de dominio especializado

Limitaciones

A pesar de su potencia, los modelos GPT-OSS tienen ciertas limitaciones:

  • Interfaz de solo texto:A diferencia de GPT-4o o Gemini, GPT‑OSS no admite entradas multimodales (imágenes, audio, video).
  • Sin transparencia del conjunto de entrenamientoOpenAI no ha publicado detalles sobre los conjuntos de datos específicos utilizados, lo que puede generar inquietudes sobre la reproducibilidad académica o la auditoría de sesgos.
  • Inconsistencia en el rendimiento:Algunos puntos de referencia de la comunidad (por ejemplo, Simple-Bench) informan resultados deficientes en pruebas de razonamiento específicas (~22 % en algunas tareas para 120b), lo que sugiere El rendimiento puede variar significativamente entre dominios..
  • Limitaciones de hardware:El modelo 120B requiere un importante volumen de procesamiento para la inferencia local, lo que lo hace inaccesible para desarrolladores ocasionales sin acceso a la GPU.
  • Compensaciones en materia de seguridad:Aunque fueron probados en escenarios adversarios de ajuste fino, la naturaleza abierta significa que estos modelos aún pueden usarse incorrectamente (por ejemplo, para spam, desinformación o jailbreaking de modelos) si no se controlan adecuadamente.

Sin embargo, OpenAI informa que los modelos gpt-oss No aumenten los riesgos de seguridad actuales a nivel de frontera, especialmente en ámbitos de bioriesgo o ciberseguridad.

Como llamar gpt-oss-120b API de CometAPI

gpt-oss-120b Precios de API en CometAPI: 20 % de descuento sobre el precio oficial.

Tokens de entrada$0.16
Fichas de salida$0.80

Pasos requeridos

  • Inicia sesión en cometapi.comSi aún no eres nuestro usuario, por favor regístrate primero.
  • Obtenga la clave API de credenciales de acceso de la interfaz. Haga clic en "Agregar token" en el token API del centro personal, obtenga la clave del token: sk-xxxxx y envíe.
  • Obtenga la URL de este sitio: https://api.cometapi.com/

Método de uso

  1. Seleccione la opción “gpt-oss-120bPunto final para enviar la solicitud de API y configurar el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API de nuestro sitio web. Nuestro sitio web también ofrece la prueba de Apifox para su comodidad.
  2. Reemplazar con su clave CometAPI real de su cuenta.
  3. Inserte su pregunta o solicitud en el campo de contenido: esto es lo que responderá el modelo.
  4. . Procesa la respuesta de la API para obtener la respuesta generada.

CometAPI proporciona una API REST totalmente compatible para una migración fluida. Detalles clave para  Documento API:

  • Punto final: https://api.cometapi.com/v1/chat/completions
  • Parámetro del modelo: gpt-oss-120b
  • Autenticación: Bearer YOUR_CometAPI_API_KEY
  • Tipo de contenido: application/json .
  • Parámetros centralespromptmax_tokens_to_sampletemperaturestop_sequences

Si bien GPT‑OSS se puede utilizar completamente sin conexión, también admite API de chat compatibles con OpenAI cuando se aloja en servicios como Hugging Face o AWS Bedrock.

A continuación se muestra un ejemplo de integración utilizando Python:

from openai import OpenAI
import os

client = OpenAI(
    base_url="https://api.cometapi.com/v1/chat/completions",  # or AWS/Azure provider

    api_key=cometapi_key
)

response = client.chat.completions.create(
    model="gpt-oss-120b",
    messages=[
        {"role": "user", "content": "Explain how quantum tunneling works."}
    ]
)

print(response.choices.message.content)

Alternativamente, puede ejecutar los modelos localmente utilizando herramientas como LMDeploy, Inferencia de generación de texto (TGI) o vllm.

Vea también GPT-OSS-20B

SHARE THIS BLOG

500+ Modelos en Una API

Hasta 20% de Descuento