Сколько параметров у GPT-5?

CometAPI
AnnaDec 2, 2025
Сколько параметров у GPT-5?

OpenAI не опубликовала официальное количество параметров для GPT-5 — от около 1.7–1.8 триллиона параметров (оценки в стиле плотной модели) для десятки триллионов Если учесть общую ёмкость архитектур типа «смесь экспертов» (MoE), то ни одна из этих цифр официально не подтверждена, а различия в архитектуре (плотная или MoE), разделении параметров, разреженности и квантовании делают один общий показатель вводящим в заблуждение.


Что OpenAI говорит о размере и архитектуре GPT-5?

В общедоступных материалах OpenAI о GPT-5 основное внимание уделяется возможностям, API и новым элементам управления, а не просто количеству параметров. На страницах компании, посвященных продуктам и разработчикам, представлены функции GPT-5: улучшенное кодирование, новый verbosity параметр и новые элементы управления рассуждениями — но не Укажите значение «параметры = X». Например, официальные страницы OpenAI GPT-5 и документация для разработчиков описывают возможности и параметры настройки, но не указывают количество параметров.

Почему это молчание имеет значение

Раньше количество параметров служило простым обозначением масштаба модели. Сегодня же само по себе оно менее информативно: выбор конструкции модели (смешивание экспертов, совместное использование параметров, квантование), тренировочные вычисления, качество данных и изменения алгоритмов могут привести к значительным различиям в возможностях без пропорционального изменения опубликованных общих параметров. Акцент OpenAI на функциях и повышении безопасности отражает этот сдвиг: компания уделяет больше внимания производительности, тестам безопасности и элементам управления API, чем чистому размеру.


Какие независимые оценки существуют и насколько сильно они различаются?

Поскольку OpenAI не опубликовала эту цифру, наша команда составляет оценку на основе нескольких сценариев, которые привели к прогнозам и гипотезам. Они подразделяются на несколько категорий:

  • ~1.7–1.8 триллиона параметров (плотная оценка). В нескольких анализах сравниваются производительность эталонных моделей, цены и историческое масштабирование, что позволяет оценить, что GPT-5 находится в диапазоне параметров порядка триллиона — аналогично некоторым оценкам для GPT-4. Эти оценки осторожны и рассматривают GPT-5 как плотную модель расширенного масштаба, а не как гигантскую систему MoE.
  • Десятки триллионов (суммы по данным Минэкономразвития). В других отчетах предполагается, что GPT-5 (или некоторые варианты GPT-5) используют подход «смешанных экспертов», где общий Число параметров для всех экспертов может достигать десятков триллионов — например, в отраслевых комментариях обсуждалась заявленная конфигурация MoE с 52.5 триллионами параметров. Системы MoE активируют только подмножество экспертов на один токен, поэтому «общее количество параметров» и «активные параметры за прямой проход» — это совершенно разные метрики.
  • Консервативные подходы, избегающие единственной цифры. В некоторых технических статьях и агрегаторах подчеркивается, что количество параметров само по себе не является точным показателем, и поэтому отказываются давать окончательную цифру, предпочитая анализировать производительность, задержку, цену и архитектурные компромиссы.

Эти различия имеют значение: утверждения «плотность 1.8 Т» и «всего 50 Т MoE» напрямую не сопоставимы — первое подразумевает плотную матрицу, примененную к каждому токену, второе подразумевает разреженный шаблон активации, из-за которого эффективные вычисления и использование памяти сильно различаются.


Как разные источники могут давать такие разные цифры?

Существует ряд технических и контекстуальных причин, по которым оценки расходятся.

(а) Плотная и разреженная (смесь экспертов) архитектуры

Плотный преобразователь применяет одни и те же матрицы весов к каждому токену; число параметров плотной модели — это количество сохранённых весов. Модель MoE хранит множество экспертных подмоделей, но активирует только небольшое подмножество для каждого токена. Иногда пользователи сообщают о общий количество экспертных параметров (которые могут быть огромными), в то время как другие сообщают о высокоэффективным Количество активированных параметров на один токен (гораздо меньше). Это несоответствие приводит к разным цифрам в заголовках.

(б) Совместное использование параметров и эффективные представления

Современные производственные модели часто используют приёмы совместного использования параметров, низкоранговые адаптеры или агрессивное квантование. Это уменьшает объём памяти и меняет подход к подсчёту «параметров» для практической ёмкости. Две модели с одинаковым количеством исходных параметров могут вести себя совершенно по-разному, если одна из них использует общие веса или сжатие.

(c) Общественная экономика и упаковка продукции

Компании могут предоставлять разные модели варианты (например, GPT-5, GPT-5-mini, GPT-5-instant) с различными внутренними размерами и профилями затрат. Цена, задержка и пропускная способность этих вариантов дают аналитикам косвенные подсказки, но эти подсказки требуют предположений о пакетировании, аппаратных и программных стеках, которые приводят к ошибкам.

(d) Намеренное неразглашение и конкурентные причины

OpenAI и другие компании всё чаще рассматривают некоторые детали архитектуры как эксклюзивные. Это снижает эффективность подсчёта на основе первых принципов и вынуждает сообщество полагаться на косвенные выводы (бенчмарки, задержка, информация от партнёров по инфраструктуре), которые весьма неинформативны.


Какие из опубликованных оценок наиболее достоверны?

Краткая оценка

Ни один публичный источник не является авторитетным; достоверность зависит от методов:

  • Анализы, основанные на триангуляции контрольных показателей, ценообразования и задержки вывода (например, подробные технические блоги отрасли) полезны, но неизбежно приблизительны.
  • Заявления об огромном общем количестве параметров правдоподобны if Архитектура — MoE, но эти итоговые значения не сопоставимы напрямую с плотными моделями и часто получены путём экстраполяции, а не на основе первичных данных. Относитесь к ним как к отдельной метрике.
  • Молчание OpenAI что само по себе число является важным показателем: компания делает акцент на поведении, безопасности и контроле API, а не на первичных подсчетах.

Как взвешивать числа

Если вам нужна рабочая гипотеза для проектирования или закупок: модель поведение (задержка, пропускная способность, стоимость за токен, корректность выполнения задач) имеют большее значение, чем непроверенная сумма параметров. Если вам необходимо использовать численную оценку стоимости моделирования, консервативно предположите, что низкий триллион величина порядка, если у вас нет прямых доказательств MoE и его моделей активации; если MoE присутствует, спросите, является ли метрика общий vs активный параметры перед использованием числа для планирования мощности.


По-прежнему ли количество параметров определяет производительность?

Короткий ответ: частично, но менее надежно, чем раньше.

Исторический взгляд

Законы масштабирования показали сильную корреляцию между размером модели, вычислительными ресурсами и производительностью в некоторых бенчмарках. Увеличение параметров (и соответствие вычислительных ресурсов и данных) исторически предсказуемо улучшало производительность. Однако эти законы предполагают схожие архитектуры и режимы обучения.

Современные предостережения

Сегодня архитектурные инновации (смешанные экспертные модели, улучшенная оптимизация, обучение по принципу цепочки мыслей, настройка инструкций), курирование обучающих данных и целенаправленная тонкая настройка (RLHF, интеграция инструментов) могут значительно повысить производительность по каждому параметру, чем простое масштабирование. В анонсах OpenAI GPT-5 особое внимание уделяется управлению рассуждениями и параметрам разработчика, таким как verbosity и reasoning_effort — решения по дизайну, которые меняют пользовательский опыт, при этом никому не нужно знать ни единого параметра.

Итак: количество параметров равно one предиктор среди многих; он не является ни необходимым, ни достаточным для характеристики полезности модели.


Что говорят последние новости о GPT-5, помимо его размеров?

В недавних отчётах основное внимание уделяется возможностям, безопасности и выбору продукта, а не чистому масштабу. В новостных агентствах освещались заявления OpenAI о том, что GPT-5 снижает политическую предвзятость результатов, что ожидаются новые изменения в возрастных ограничениях и политике в отношении контента, а также что OpenAI работает над тем, чтобы сделать модель более полезной и контролируемой для разработчиков. Это сигналы о продуктах и ​​политике, которые на практике значат больше, чем нераскрытый подсчёт параметров.

Практические изменения в продукте

В материалах для разработчиков OpenAI представлены новые параметры API (детальность, трудоёмкость, настраиваемые инструменты), позволяющие разработчикам выбирать между скоростью, детализацией и глубиной мышления. Эти настройки конкретны и доступны для немедленного применения разработчиками, которым необходимо решить, какой вариант или настройка GPT-5 подходит для их продукта.


Что следует делать исследователям и инженерам, если им необходимо планировать мощности или стоимость?

Не полагайтесь на один-единственный параметр

Используйте эмпирический бенчмаркинг на вашей рабочей нагрузке. Измеряйте задержку, пропускную способность, стоимость токенов и точность на репрезентативных запросах. Эти показатели — то, за что вы платите, и то, что получат ваши пользователи. Модели с похожим количеством параметров могут иметь очень разную реальную стоимость.

Если вам необходимо выбрать предположение, основанное на параметрах

Задокументируйте, занимаетесь ли вы моделированием общий параметры (полезные для хранения и некоторых дискуссий по лицензированию) против активный Параметры для каждого токена (полезны для оперативной памяти/вычислений). Если используется общедоступная оценка, укажите её источник и допущения (MoE или плотная структура, квантование, используются ли общие веса).

Следите за официальными документами и заявленными изменениями OpenAI.

OpenAI публикует функции API и цены, которые напрямую влияют на стоимость; они более практичны, чем умозрительные подсчёты параметров. Следите за страницами разработчиков и примечаниями к выпуску, чтобы узнать названия вариантов, цены и уровни задержки.


Итак — сколько же параметров в итоге имеет GPT-5?

Там есть нет единого авторитетного публичного ответа Поскольку OpenAI не опубликовала количество параметров, а оценки сторонних организаций расходятся. Лучшее и честное резюме:

  • ОпенАИ: Нет количества общедоступных параметров; основное внимание уделяется возможностям, безопасности и контролю со стороны разработчика.
  • Независимые осторожные оценки: Многие анализы предполагают, низкий триллион Порядок величины (≈1.7–1.8 Тл) при моделировании GPT-5 как плотного трансформатора масштабируемого размера. Считайте это оценкой, а не фактом.
  • Претензии MoE/совокупности параметров: Существуют циркулирующие утверждения (например, ~52.5T), относящиеся к общей экспертной емкости в гипотетической конфигурации MoE. Они не сопоставимы напрямую с плотными числами и зависят от поведения активации.

Заключительные выводы

  1. Подсчет параметров информативен, но неполн. Они помогают сформировать интуитивное представление о масштабе, но современные возможности LLM зависят от архитектуры, обучающих данных, вычислений и тонкой настройки.
  2. OpenAI не публикует общие параметры GPT-5. Поэтому аналитики полагаются на косвенные сигналы и предположения, ожидая широкий диапазон оценок.
  3. Итоги MoE в сравнении с плотными подсчетами: Если вы видите заголовок «десятки триллионов», проверьте, относится ли он к всего экспертов МО or активные параметры на токен — они не одинаковые.
  4. Ориентиры превыше спекуляций при принятии решений о продуктах. Оцените модель на важных для вас задачах (точность, задержка, стоимость). Настройки API OpenAI (детальность, сложность рассуждений), вероятно, будут иметь большее значение, чем непроверенное общее количество параметров.

Как вызвать API GPT-5 дешевле?

CometAPI — это унифицированная платформа API, которая объединяет более 500 моделей ИИ от ведущих поставщиков, таких как серия GPT OpenAI, Gemini от Google, Claude от Anthropic, Midjourney, Suno и других, в единый, удобный для разработчиков интерфейс. Предлагая последовательную аутентификацию, форматирование запросов и обработку ответов, CometAPI значительно упрощает интеграцию возможностей ИИ в ваши приложения. Независимо от того, создаете ли вы чат-ботов, генераторы изображений, композиторов музыки или конвейеры аналитики на основе данных, CometAPI позволяет вам выполнять итерации быстрее, контролировать расходы и оставаться независимыми от поставщика — и все это при использовании последних достижений в экосистеме ИИ.

Разработчики могут получить доступ GPT-5 и API GPT-5 Pro через CometAPI, последняя версия модели Всегда обновляется на официальном сайте. Для начала изучите возможности модели в Детская Площадка и проконсультируйтесь с API-руководство для получения подробных инструкций. Перед доступом убедитесь, что вы вошли в CometAPI и получили ключ API. CometAPI предложить цену намного ниже официальной, чтобы помочь вам интегрироваться.

Готовы к работе?→ Зарегистрируйтесь в CometAPI сегодня !

Если вы хотите узнать больше советов, руководств и новостей об искусственном интеллекте, подпишитесь на нас VKX и Discord!

SHARE THIS BLOG

Читать далее

500+ моделей в одном API

Скидка до 20%