OpenAI no ha publicado un recuento oficial de parámetros para GPT-5 — desde alrededor de 1.7 a 1.8 billones de parámetros (estimaciones de estilo de modelo denso) a decenas de billones Si se considera la capacidad total de las arquitecturas de tipo Mixtura de Expertos (MoE), ninguna de estas cifras está confirmada oficialmente, y las diferencias en la arquitectura (densa vs. MoE), la compartición de parámetros, la escasez y la cuantificación hacen que una sola cifra principal sea engañosa.
¿Qué dice OpenAI sobre el tamaño y la arquitectura de GPT-5?
Los materiales públicos de OpenAI sobre GPT-5 se centran en las capacidades, las API y los nuevos controles, en lugar de en el recuento de parámetros. Las páginas de productos y desarrolladores de la compañía presentan las características de GPT-5: codificación mejorada, un nuevo verbosity parámetro y nuevos controles de razonamiento, pero no Revelan una cifra de "parámetros = X". Por ejemplo, las páginas oficiales de GPT-5 de OpenAI y la documentación para desarrolladores describen las capacidades y los botones de configuración, pero omiten la especificación del número de parámetros.
Por qué importa ese silencio
Los recuentos de parámetros solían ser una simple abreviatura para la escala del modelo. Hoy en día, por sí solos, son menos informativos: las decisiones de diseño del modelo (combinación de expertos, intercambio de parámetros, cuantificación), el cálculo de entrenamiento, la calidad de los datos y los cambios algorítmicos pueden generar grandes diferencias de capacidad sin un cambio proporcional en los totales de parámetros publicados. El enfoque de OpenAI en las características y las mejoras de seguridad refleja este cambio: priorizan el rendimiento, las pruebas de seguridad y los controles de la API más que el tamaño bruto.
¿Qué estimaciones independientes existen y en qué medida difieren?
Dado que OpenAI no publicó la cifra, nuestro equipo realiza una estimación basada en varios escenarios que han generado estimaciones e hipótesis. Estas se agrupan en varias categorías:
- ~1.7–1.8 billones de parámetros (estimación de estilo denso). Varios análisis comparan el rendimiento de referencia, los precios y el escalamiento histórico para estimar que GPT-5 se encuentra en el rango de parámetros de menos de un billón, una magnitud similar a la de algunas estimaciones para GPT-4. Estas estimaciones son cautelosas y consideran a GPT-5 un modelo denso de escala extendida, en lugar de un enorme sistema de MoE.
- Decenas de billones (totales al estilo del Ministerio de Educación). Otros informes sugieren que GPT-5 (o algunas variantes de GPT-5) utilizan un enfoque de combinación de expertos donde total El número de parámetros de todos los expertos puede alcanzar decenas de billones; por ejemplo, una supuesta configuración de MoE de 52.5 billones de parámetros ha circulado en comentarios del sector. Los sistemas MoE solo activan un subconjunto de expertos por token, por lo que los "parámetros totales" y los "parámetros activos por pase de reenvío" son métricas muy diferentes.
- Tomas conservadoras que evitan un número único. Algunos artículos técnicos y agregadores enfatizan que el recuento de parámetros por sí solo es un indicador pobre y, por lo tanto, se niegan a dar una cifra definitiva y prefieren analizar el rendimiento, la latencia, los precios y las compensaciones arquitectónicas.
Estas diferencias son importantes: una afirmación de “1.8T denso” y una de “50T MoE total” no son directamente comparables: la primera implica una matriz densa aplicada a cada token, la segunda implica un patrón de activación disperso que hace que el uso efectivo de la memoria y el cómputo sean muy diferentes.
¿Cómo es posible que fuentes diferentes produzcan números tan distintos?
Hay varias razones técnicas y contextuales por las que las estimaciones divergen.
(a) Arquitecturas densas vs. dispersas (mezcla de expertos)
Un transformador denso aplica las mismas matrices de ponderación a cada token; el recuento de parámetros de un modelo denso es el número de ponderaciones almacenadas. Un modelo MoE almacena muchos submodelos expertos, pero solo activa un pequeño subconjunto por token. A veces se informa que... total recuento de parámetros expertos (que pueden ser enormes) mientras que otros informan un eficaz El número de parámetros activados por token (mucho menor) genera cifras de titulares muy diferentes.
(b) Compartición de parámetros y representaciones eficientes
Los modelos de producción modernos suelen utilizar trucos para compartir parámetros, adaptadores de bajo rango o cuantificación agresiva. Estos reducen el consumo de memoria y modifican la forma de contar los "parámetros" para una capacidad práctica. Dos modelos con el mismo recuento de parámetros sin procesar pueden comportarse de forma muy diferente si uno utiliza pesos compartidos o compresión.
(c) Economía de cara al público y embalaje de productos
Las empresas pueden exponer diferentes modelos variantes (p. ej., GPT-5, GPT-5-mini, GPT-5-instant) con diferentes tamaños internos y perfiles de costos. El precio, la latencia y el rendimiento de estas variantes ofrecen a los analistas pistas indirectas, pero estas pistas requieren suposiciones sobre el procesamiento por lotes, el hardware y las pilas de software que introducen errores.
(d) No divulgación deliberada y razones competitivas
OpenAI y otras empresas tratan cada vez más ciertos detalles de la arquitectura como propios. Esto reduce lo que se puede aprender del conteo de primeros principios y obliga a la comunidad a depender de inferencias indirectas (puntos de referencia, latencia, socios de infraestructura informados), que son ruidosas.
¿Cuáles de las estimaciones publicadas son las más creíbles?
Evaluación breve
Ninguna fuente pública tiene autoridad; la credibilidad depende de los métodos:
- Análisis que triangulan a partir de puntos de referencia, precios y latencia de inferencia (por ejemplo, blogs técnicos de la industria) son útiles pero necesariamente aproximados.
- Afirmaciones de enormes cantidades totales de parámetros son plausibles if La arquitectura es MoE, pero esos totales no son directamente comparables con los modelos densos y a menudo provienen de la extrapolación en lugar de la evidencia primaria. Considérelos como una métrica diferente.
- El silencio de OpenAI El número en sí mismo es un dato importante: la empresa prioriza el comportamiento, la seguridad y los controles API sobre los recuentos brutos.
Cómo sopesar los números
Si necesita una hipótesis de trabajo para ingeniería o adquisiciones: modelo comportamiento (latencia, rendimiento, costo por token, precisión en sus tareas) es más importante que un total de parámetros sin verificar. Si debe usar una estimación numérica para modelar el costo, asuma de forma conservadora... bajo billón orden de magnitud a menos que tenga evidencia directa de MoE y sus patrones de activación; si MoE está presente, pregunte si la métrica es total vs activo parámetros antes de utilizar el número para la planificación de la capacidad.
¿El recuento de parámetros aún predice el rendimiento?
Respuesta corta: parcialmente, pero de forma menos fiable que antes.
La visión histórica
Las leyes de escalamiento mostraron una fuerte correlación entre el tamaño del modelo, el cómputo y el rendimiento para ciertas pruebas de referencia. El aumento de los parámetros (y la correspondencia entre cómputo y datos) históricamente mejoró las capacidades de forma predecible. Sin embargo, estas leyes presuponen arquitecturas y regímenes de entrenamiento similares.
Las advertencias modernas
Hoy en día, las innovaciones arquitectónicas (combinación de expertos, mejor optimización, entrenamiento en cadena de pensamiento, ajuste de instrucciones), la curación de datos de entrenamiento y el ajuste preciso específico (RLHF, integración del uso de herramientas) pueden aumentar la capacidad por parámetro mucho más que el escalamiento ingenuo. Los anuncios de GPT-5 de OpenAI enfatizan los controles de razonamiento y los parámetros del desarrollador como verbosity y reasoning_effort —opciones de diseño que cambian la experiencia del usuario sin que nadie necesite saber ni un solo recuento de parámetros.
Entonces: el número de parámetros es uno predictor entre muchos; no es necesario ni suficiente caracterizar la utilidad del modelo.
¿Qué dicen las últimas noticias sobre GPT-5 más allá del tamaño?
Los informes recientes se centran en la capacidad, la seguridad y la elección de productos, más que en la escala bruta. Los medios de comunicación han cubierto las afirmaciones de OpenAI de que GPT-5 reduce el sesgo político en sus resultados, que se avecinan nuevos cambios en la restricción de edad y en las políticas de contenido, y que OpenAI está iterando para que el modelo sea más útil y controlable para los desarrolladores. Estas son señales de productos y políticas que, en la práctica, son más importantes que un recuento de parámetros no revelado.
Cambios prácticos en el producto
Los materiales para desarrolladores de OpenAI anuncian nuevos parámetros de API (verbosidad, esfuerzo de razonamiento, herramientas personalizadas) diseñados para que los desarrolladores equilibren velocidad, detalle y profundidad de pensamiento. Estos parámetros son concretos y de aplicación inmediata para los desarrolladores que deben decidir qué variante o configuración de GPT-5 se adapta mejor a su producto.
¿Qué deben hacer los investigadores e ingenieros si necesitan planificar la capacidad o los costos?
No confíe en un único número de “parámetros”
Use evaluación comparativa empírica En su carga de trabajo. Mida la latencia, el rendimiento, el costo del token y la precisión en indicaciones representativas. Estas métricas son lo que pagará y la experiencia de sus usuarios. Los modelos con parámetros similares pueden tener costos reales muy diferentes.
Si debe elegir una suposición basada en parámetros
Documenta si estás modelando total parámetros (útiles para el almacenamiento y algunas discusiones sobre licencias) versus activo Parámetros por token (útiles para la memoria/computación en tiempo de ejecución). Si se utiliza una estimación pública, cite su fuente y sus supuestos (MoE vs. denso, cuantificación, si se comparten los pesos).
Monitorear los documentos oficiales y los cambios declarados por OpenAI
OpenAI publica características y precios de la API que afectan directamente el costo; estos son más prácticos que los recuentos especulativos de parámetros. Consulte las páginas para desarrolladores y las notas de la versión para conocer los nombres de las variantes, los precios y los niveles de latencia.
Entonces, ¿cuántos parámetros tiene finalmente GPT-5?
Hay No existe una única respuesta pública autorizada Porque OpenAI no ha publicado un recuento de parámetros y las estimaciones de terceros difieren. El mejor y más honesto resumen:
- IA abierta: No hay recuento de parámetros públicos; el foco está en la capacidad, la seguridad y los controles del desarrollador.
- Estimaciones cautelosas e independientes: Muchos análisis sugieren una bajo billón Orden de magnitud (≈1.7–1.8 T) si se modela el GPT-5 como un transformador denso de tamaño escalado. Considere esto como una estimación, no como un hecho.
- Reclamaciones de MoE/parámetros totales: Existen afirmaciones circulantes (p. ej., ~52.5 T) que se refieren a la capacidad total de expertos en una configuración hipotética de MoE. Estas no son directamente comparables con los conteos densos y dependen del comportamiento de activación.
Conclusiones finales
- Los recuentos de parámetros son informativos pero incompletos. Ayudan a desarrollar la intuición sobre la escala, pero la capacidad LLM moderna depende de la arquitectura, los datos de entrenamiento, la computación y el ajuste.
- OpenAI no publica el total de parámetros de GPT-5. Por lo tanto, los analistas se basan en señales y suposiciones indirectas y esperan una variedad de estimaciones.
- Totales de MoE vs. recuentos densos: Si ve un titular que diga “decenas de billones”, verifique si se refiere a Expertos totales del Ministerio de Educación or parámetros activos por token —No son lo mismo.
- Los puntos de referencia superan a la especulación en las decisiones sobre productos. Mida el modelo en las tareas que le interesan (precisión, latencia, coste). La configuración de la API que proporciona OpenAI (verbosidad, esfuerzo de razonamiento) probablemente será más importante que una cifra total de parámetros sin verificar.
¿Cómo llamar a la API GPT-5 de forma más económica?
CometAPI es una plataforma API unificada que integra más de 500 modelos de IA de proveedores líderes, como la serie GPT de OpenAI, Gemini de Google, Claude de Anthropic, Midjourney, Suno y más, en una única interfaz intuitiva para desarrolladores. Al ofrecer autenticación, formato de solicitudes y gestión de respuestas consistentes, CometAPI simplifica drásticamente la integración de las capacidades de IA en sus aplicaciones. Ya sea que esté desarrollando chatbots, generadores de imágenes, compositores musicales o canales de análisis basados en datos, CometAPI le permite iterar más rápido, controlar costos y mantenerse independiente del proveedor, todo mientras aprovecha los últimos avances del ecosistema de IA.
Los desarrolladores pueden acceder GPT-5 y API de GPT-5 Pro a través de CometAPI, la última versión del modelo Se actualiza constantemente con el sitio web oficial. Para empezar, explora las capacidades del modelo en el Playground y consultar el Guía de API Para obtener instrucciones detalladas, consulte la sección "Antes de acceder, asegúrese de haber iniciado sesión en CometAPI y de haber obtenido la clave API". CometAPI Ofrecemos un precio muy inferior al oficial para ayudarte a integrarte.
¿Listo para ir?→ Regístrate en CometAPI hoy !
Si quieres conocer más consejos, guías y novedades sobre IA síguenos en VK, X y Discord!



