OpenAI's gpt-oss-120b marca el primer lanzamiento de peso abierto de la organización desde GPT-2, ofreciendo a los desarrolladores transparente, customizable e Alto rendimiento Capacidades de IA bajo la Licencia de Apache 2.0Diseñado para sofisticados razonamiento y agente Aplicaciones: este modelo democratiza el acceso a tecnologías avanzadas de lenguaje de gran tamaño, lo que permite la implementación local y un ajuste profundo.
Características principales y filosofía de diseño
Los modelos GPT-OSS están diseñados como LLM de propósito general, basados únicamente en texto. Admiten tareas cognitivas de alto nivel, como razonamiento matemático, análisis estructurado y comprensión del lenguaje. A diferencia de los modelos comerciales cerrados como GPT-4, GPT-OSS permite la descarga y el uso completo de las ponderaciones del modelo, lo que brinda a investigadores y desarrolladores un acceso sin precedentes para inspeccionar, ajustar e implementar modelos completamente en su infraestructura.
Información básica
- Parámetros:117 mil millones en total, 5.1 mil millones activo vía Mezcla de expertos (MoE)
- Licencia:Apache 2.0 para uso comercial y académico sin restricciones
- Ventana de contexto: Hasta 128 K tokens, que admite entradas de formato largo y razonamiento de múltiples documentos
- Cadena de pensamiento: Completo Cuna Salidas para auditabilidad y control detallado
- Salidas estructuradas:Soporte nativo para JSON, XML y esquemas personalizados.
Detalles técnicos
GPT-OSS aprovecha una transformador columna vertebral aumentada con una Mezcla de expertos (MoE) arquitectura para lograr una activación dispersa y reducir los costos de inferencia. La gpt-oss-120b El modelo contiene Expertos de 128 distribuido a través capas 36, activando 4 expertos por token (5.1 B parámetros activos), mientras que gpt-oss-20b utiliza Expertos de 32 más del capas 24, activando 4 expertos por token (3.6 B parámetros activos). Se emplea Atención alternada densa y dispersa con bandas locales, atención de múltiples consultas agrupadas (tamaño del grupo 8), y apoyar a un 128 k Ventana de contexto de token: inigualable en ofertas de peso abierto hasta la fecha. La eficiencia de la memoria se mejora aún más mediante la **cuantización de precisión mixta de 4 bits**, lo que permite contextos más amplios en hardware estándar.
Los modelos GPT-OSS se han sometido a una evaluación comparativa rigurosa con conjuntos de datos conocidos, lo que revela un rendimiento competitivo, si no superior, en comparación con modelos propietarios de tamaño similar.
Evaluación comparativa y de desempeño
En los puntos de referencia estándar, gpt-oss-120b iguala o supera la propiedad de OpenAI o4-mini modelo:
- MMLU (Comprensión masiva del lenguaje multitarea):~88% de precisión
- Codeforces Elo (razonamiento de codificación): ~ 2205
- AIME (concurso de matemáticas con herramientas): ~ 87.9%
- Banco de salud:Supera significativamente a o4-mini en tareas de diagnóstico y control de calidad clínico.
- Tau-Bench (Tareas de venta minorista y razonamiento):~62% en promedio
Versión del modelo
- Variante predeterminada:
gpt-oss-120b(V1.0) - Parámetros activos:5.1 B (selección dinámica de MoE)
- Comunicados de seguimiento:Parches planificados para mejorar filtros de seguridad y ajuste fino de dominio especializado
Limitaciones
A pesar de su potencia, los modelos GPT-OSS tienen ciertas limitaciones:
- Interfaz de solo texto:A diferencia de GPT-4o o Gemini, GPT‑OSS no admite entradas multimodales (imágenes, audio, video).
- Sin transparencia del conjunto de entrenamientoOpenAI no ha publicado detalles sobre los conjuntos de datos específicos utilizados, lo que puede generar inquietudes sobre la reproducibilidad académica o la auditoría de sesgos.
- Inconsistencia en el rendimiento:Algunos puntos de referencia de la comunidad (por ejemplo, Simple-Bench) informan resultados deficientes en pruebas de razonamiento específicas (~22 % en algunas tareas para 120b), lo que sugiere El rendimiento puede variar significativamente entre dominios..
- Limitaciones de hardware:El modelo 120B requiere un importante volumen de procesamiento para la inferencia local, lo que lo hace inaccesible para desarrolladores ocasionales sin acceso a la GPU.
- Compensaciones en materia de seguridad:Aunque fueron probados en escenarios adversarios de ajuste fino, la naturaleza abierta significa que estos modelos aún pueden usarse incorrectamente (por ejemplo, para spam, desinformación o jailbreaking de modelos) si no se controlan adecuadamente.
Sin embargo, OpenAI informa que los modelos gpt-oss No aumenten los riesgos de seguridad actuales a nivel de frontera, especialmente en ámbitos de bioriesgo o ciberseguridad.
Como llamar gpt-oss-120b API de CometAPI
gpt-oss-120b Precios de API en CometAPI: 20 % de descuento sobre el precio oficial.
| Tokens de entrada | $0.16 |
| Fichas de salida | $0.80 |
Pasos requeridos
- Inicia sesión en cometapi.comSi aún no eres nuestro usuario, por favor regístrate primero.
- Obtenga la clave API de credenciales de acceso de la interfaz. Haga clic en "Agregar token" en el token API del centro personal, obtenga la clave del token: sk-xxxxx y envíe.
- Obtenga la URL de este sitio: https://api.cometapi.com/
Método de uso
- Seleccione la opción “
gpt-oss-120bPunto final para enviar la solicitud de API y configurar el cuerpo de la solicitud. El método y el cuerpo de la solicitud se obtienen de la documentación de la API de nuestro sitio web. Nuestro sitio web también ofrece la prueba de Apifox para su comodidad. - Reemplazar con su clave CometAPI real de su cuenta.
- Inserte su pregunta o solicitud en el campo de contenido: esto es lo que responderá el modelo.
- . Procesa la respuesta de la API para obtener la respuesta generada.
CometAPI proporciona una API REST totalmente compatible para una migración fluida. Detalles clave para Documento API:
- Punto final: https://api.cometapi.com/v1/chat/completions
- Parámetro del modelo: gpt-oss-120b
- Autenticación:
Bearer YOUR_CometAPI_API_KEY - Tipo de contenido:
application/json. - Parámetros centrales:
prompt,max_tokens_to_sample,temperature,stop_sequences
Si bien GPT‑OSS se puede utilizar completamente sin conexión, también admite API de chat compatibles con OpenAI cuando se aloja en servicios como Hugging Face o AWS Bedrock.
A continuación se muestra un ejemplo de integración utilizando Python:
from openai import OpenAI
import os
client = OpenAI(
base_url="https://api.cometapi.com/v1/chat/completions", # or AWS/Azure provider
api_key=cometapi_key
)
response = client.chat.completions.create(
model="gpt-oss-120b",
messages=[
{"role": "user", "content": "Explain how quantum tunneling works."}
]
)
print(response.choices.message.content)
Alternativamente, puede ejecutar los modelos localmente utilizando herramientas como LMDeploy, Inferencia de generación de texto (TGI) o vllm.
Vea también GPT-OSS-20B


