Ile parametrów ma GPT-5

CometAPI
AnnaOct 17, 2025
Ile parametrów ma GPT-5

OpenAI nie opublikowało oficjalnej liczby parametrów dla GPT-5 — od około 1.7–1.8 biliona parametrów (szacunki w stylu gęstego modelu) do dziesiątki bilionów Jeśli weźmiemy pod uwagę całkowitą pojemność architektur typu Mixture-of-Experts (MoE), żadna z tych liczb nie jest oficjalnie potwierdzona, a różnice w architekturze (gęsta vs. MoE), współdzieleniu parametrów, rzadkości i kwantyzacji sprawiają, że pojedyncza liczba w nagłówku może być myląca.


Co OpenAI mówi o rozmiarze i architekturze GPT-5?

Publiczne materiały OpenAI dotyczące GPT-5 kładą nacisk na możliwości, API i nowe kontrolki, a nie na samą liczbę parametrów. Strony produktowe i deweloperskie firmy przedstawiają funkcje GPT-5 — ulepszone kodowanie, nowy verbosity parametr i nowe sterowanie wnioskowaniem — ale czy nie ujawnić wartość „parametry = X”. Na przykład oficjalne strony OpenAI dotyczące GPT-5 i dokumentacja dla programistów opisują możliwości i pokrętła konfiguracyjne, ale pomijają specyfikację liczby parametrów.

Dlaczego ta cisza ma znaczenie

Liczba parametrów kiedyś była prostym skrótem określającym skalę modelu. Dziś sama w sobie jest mniej informacyjna: wybory dotyczące projektu modelu (mieszanka ekspertów, współdzielenie parametrów, kwantyzacja), obliczenia treningowe, jakość danych i zmiany algorytmów mogą prowadzić do dużych różnic w możliwościach bez proporcjonalnej zmiany w publikowanych sumach parametrów. Skupienie się OpenAI na funkcjach i ulepszeniach bezpieczeństwa odzwierciedla tę zmianę: kładzie się nacisk na wydajność, testy bezpieczeństwa i kontrolę API bardziej niż na rozmiar.


Jakie niezależne szacunki istnieją i jak bardzo się one różnią?

Ponieważ OpenAI nie opublikowało tej liczby, nasz zespół dokonuje szacunków na podstawie kilku scenariuszy, które doprowadziły do ​​powstania szacunków i hipotez. Dzielą się one na kilka kategorii:

  • ~1.7–1.8 biliona parametrów (oszacowanie metodą gęstą). Kilka analiz porównuje wydajność benchmarków, ceny i skalowanie historyczne, aby oszacować, że GPT-5 mieści się w zakresie parametrów rzędu kilku bilionów – podobnym do niektórych szacunków dla GPT-4. Szacunki te są ostrożne i traktują GPT-5 jako gęsty model o rozszerzonej skali, a nie ogromny system MoE.
  • Dziesiątki bilionów (według szacunków MoE). Inne raporty sugerują, że GPT-5 (lub niektóre warianty GPT-5) wykorzystują podejście mieszanej grupy ekspertów, w którym całkowity Liczba parametrów wszystkich ekspertów może sięgać dziesiątek bilionów – na przykład w komentarzach branżowych pojawiła się deklaracja konfiguracji MoE z 52.5 biliona parametrów. Systemy MoE aktywują tylko podzbiór ekspertów na token, więc „łączna liczba parametrów” i „aktywne parametry na jedno przejście” to zupełnie różne wskaźniki.
  • Konserwatywne podejście, które unika stosowania pojedynczej liczby. Niektóre opracowania techniczne i agregatory podkreślają, że sama liczba parametrów nie jest miarodajnym wskaźnikiem i dlatego odmawiają podania dokładnych danych, woląc analizować kompromisy związane z wydajnością, opóźnieniami, cenami i architekturą.

Te różnice mają znaczenie: nie można bezpośrednio porównywać deklaracji „gęstości 1.8T” i „łącznej mocy obliczeniowej 50T” — pierwsza z nich oznacza gęstą macierz stosowaną do każdego tokena, druga natomiast oznacza rzadki wzorzec aktywacji, który sprawia, że ​​efektywne wykorzystanie mocy obliczeniowej i pamięci jest bardzo różne.


Jak to możliwe, że różne źródła podają tak różne liczby?

Istnieje kilka przyczyn technicznych i kontekstowych, dla których szacunki się różnią.

(a) Architektury gęste i rzadkie (mieszane z ekspertami)

Gęsty transformator stosuje te same macierze wag do każdego tokena; liczba parametrów gęstego modelu to liczba przechowywanych wag. Model MoE przechowuje wiele eksperckich podmodeli, ale aktywuje tylko niewielki podzbiór na token. Czasami użytkownicy zgłaszają… całkowity liczba parametrów eksperckich (która może być ogromna), podczas gdy inni zgłaszają skuteczny liczba parametrów aktywowanych na token (znacznie mniejsza). Ta rozbieżność powoduje drastycznie różne liczby w nagłówkach.

(b) Współdzielenie parametrów i efektywne reprezentacje

Współczesne modele produkcyjne często wykorzystują sztuczki współdzielenia parametrów, adaptery niskiej rangi lub agresywną kwantyzację. Zmniejszają one wykorzystanie pamięci i zmieniają sposób liczenia „parametrów” w celu uzyskania praktycznej wydajności. Dwa modele o tej samej surowej liczbie parametrów mogą zachowywać się zupełnie inaczej, jeśli jeden z nich użyje współdzielonych wag lub kompresji.

(c) Ekonomia skierowana do opinii publicznej i opakowania produktów

Firmy mogą prezentować różne modele warianty (np. GPT-5, GPT-5-mini, GPT-5-instant) o różnych rozmiarach wewnętrznych i profilach kosztów. Ceny, opóźnienia i przepustowość tych wariantów dają analitykom pośrednie wskazówki – ale wskazówki te wymagają założeń dotyczących przetwarzania wsadowego, stosów sprzętowych i programowych, które wprowadzają błędy.

(d) Celowe zatajenie informacji i powody konkurencyjne

OpenAI i inne firmy coraz częściej traktują pewne szczegóły architektury jako zastrzeżone. To ogranicza możliwości wyciągania wniosków z obliczeń opartych na pierwszych zasadach i zmusza społeczność do polegania na pośrednich wnioskach (benchmarkach, opóźnieniach, raportowanych partnerach infrastrukturalnych), które są obarczone dużym błędem.


Które z opublikowanych szacunków są najbardziej wiarygodne?

Krótka ocena

Żadne pojedyncze źródło publiczne nie jest autorytatywne; wiarygodność zależy od metod:

  • Analizy oparte na testach porównawczych, cenach i opóźnieniach wnioskowania (np. starannie opracowane branżowe blogi techniczne) są przydatne, ale z konieczności przybliżone.
  • Roszczenia dotyczące ogromnej całkowitej liczby parametrów są prawdopodobne if Architektura to MoE — ale te sumy nie są bezpośrednio porównywalne z modelami gęstymi i często pochodzą z ekstrapolacji, a nie z dowodów pierwotnych. Traktuj je jako odrębną metrykę.
  • Cisza OpenAI liczba sama w sobie stanowi ważny punkt danych: firma kładzie nacisk na kontrolę zachowania, bezpieczeństwa i interfejsu API, a nie na surowe dane.

Jak ważyć liczby

Jeśli potrzebujesz założenia roboczego dla inżynierii lub zaopatrzenia: model zachowanie (opóźnienie, przepustowość, koszt na token, poprawność zadań) ma większe znaczenie niż niezweryfikowana suma parametrów. Jeśli musisz użyć szacunków numerycznych do modelowania kosztów, ostrożnie załóż niski bilion rząd wielkości, chyba że posiadasz bezpośrednie dowody na MoE i wzorce jego aktywacji; jeśli MoE jest obecne, zapytaj, czy metryka jest całkowity vs aktywny parametry przed użyciem liczby do planowania pojemności.


Czy liczba parametrów nadal pozwala przewidywać wydajność?

Krótka odpowiedź: częściowo, ale mniej niezawodnie niż wcześniej.

Widok historyczny

Prawa skalowania wykazały silną korelację między rozmiarem modelu, mocą obliczeniową i wydajnością w niektórych testach porównawczych. Historycznie rzecz biorąc, zwiększanie parametrów (i dopasowanie mocy obliczeniowej/danych) poprawiało możliwości w przewidywalny sposób. Jednak prawa te zakładają podobne architektury i schematy treningowe.

Nowoczesne zastrzeżenia

Obecnie innowacje architektoniczne (mieszanka ekspertów, lepsza optymalizacja, szkolenie oparte na łańcuchu myślowym, dostrajanie instrukcji), gromadzenie danych szkoleniowych i ukierunkowane dostrajanie (RLHF, integracja z narzędziami) mogą znacznie zwiększyć możliwości w przeliczeniu na parametr niż proste skalowanie. Zapowiedzi OpenAI dotyczące GPT-5 kładą nacisk na kontrolki wnioskowania i parametry programistyczne, takie jak verbosity oraz reasoning_effort — wybory projektowe, które zmieniają doświadczenie użytkownika, bez konieczności znajomości przez kogokolwiek znaczenia jakiegokolwiek parametru.

Więc: liczba parametrów wynosi pierwszej jest jednym z wielu predyktorów; nie jest ani konieczny, ani wystarczający do scharakteryzowania użyteczności modelu.


Co najnowsze doniesienia mówią o GPT-5 poza rozmiarem?

Najnowsze doniesienia koncentrują się na możliwościach, bezpieczeństwie i wyborze produktów, a nie na samej skali. Media relacjonowały twierdzenia OpenAI, że GPT-5 zmniejsza stronniczość polityczną w swoich produktach, że wkrótce zostaną wprowadzone nowe ograniczenia wiekowe i zmiany w polityce dotyczącej treści, a także że OpenAI wprowadza iteracje, aby uczynić model bardziej użytecznym i łatwiejszym do kontrolowania przez deweloperów. Są to sygnały dotyczące produktów i polityki, które w praktyce mają większe znaczenie niż nieujawniona liczba parametrów.

Praktyczne zmiany w produkcie

Materiały dla deweloperów OpenAI zapowiadają nowe parametry API (rozwlekłość, wysiłek wnioskowania, narzędzia niestandardowe), które pozwalają programistom na kompromis między szybkością, szczegółowością i głębią myślenia. Te pokrętła są konkretne i natychmiast dostępne dla programistów, którzy muszą zdecydować, który wariant lub ustawienie GPT-5 pasuje do ich produktu.


Co powinni zrobić badacze i inżynierowie, jeśli muszą zaplanować wydajność lub koszty?

Nie polegaj na pojedynczym numerze „parametrów”

Zastosowanie benchmarking empiryczny na Twoim obciążeniu. Zmierz opóźnienie, przepustowość, koszt tokena i dokładność reprezentatywnych komunikatów. Te metryki określają, za co zapłacisz i czego doświadczą Twoi użytkownicy. Modele o podobnej liczbie parametrów mogą mieć bardzo różne koszty rzeczywiste.

Jeśli musisz wybrać założenie oparte na parametrach

Udokumentuj, czy modelujesz całkowity parametry (przydatne do przechowywania i niektórych dyskusji na temat licencjonowania) w porównaniu aktywny Parametry na token (przydatne dla pamięci/obliczeń w czasie wykonywania). Jeśli używany jest publiczny szacunek, należy podać jego źródło i założenia (MoE vs. gęstość, kwantyzacja, czy wagi są współdzielone).

Monitoruj oficjalną dokumentację i deklarowane zmiany OpenAI

OpenAI publikuje funkcje API i ceny, które bezpośrednio wpływają na koszty; są one bardziej praktyczne niż spekulacyjne liczby parametrów. Śledź strony dla deweloperów i informacje o wydaniach, aby poznać nazwy wariantów, ceny i poziomy opóźnień.


Ile więc parametrów ma ostatecznie GPT-5?

Jest brak jednej, autorytatywnej odpowiedzi publicznej Ponieważ OpenAI nie opublikowało liczby parametrów, a szacunki firm zewnętrznych są rozbieżne. Najlepsze, uczciwe podsumowanie:

  • OpenAI: Brak publicznego zliczania parametrów; nacisk położony jest na możliwości, bezpieczeństwo i kontrolę deweloperską.
  • Niezależne ostrożne szacunki: Wiele analiz sugeruje, że niski bilion rząd wielkości (≈1.7–1.8 T), jeśli modelujesz GPT-5 jako gęsty transformator o skalowalnej wielkości. Traktuj to jako szacunek, a nie fakt.
  • Roszczenia MoE/całkowitych parametrów: W obiegu krążą twierdzenia (np. ~52.5 T), które odnoszą się do całkowitej mocy obliczeniowej eksperta w hipotetycznej konfiguracji MoE. Nie są one bezpośrednio porównywalne z gęstością zliczeń i zależą od zachowania aktywacji.

Ostateczne dania na wynos

  1. Liczba parametrów jest informacyjna, ale niekompletna. Pomagają one budować intuicję dotyczącą skali, ale możliwości nowoczesnego LLM zależą od architektury, danych szkoleniowych, obliczeń i precyzyjnego dostrajania.
  2. OpenAI nie publikuje łącznej liczby parametrów GPT-5. Analitycy opierają się zatem na pośrednich sygnałach i założeniach; spodziewają się szerokiego zakresu szacunków.
  3. Sumy MoE w porównaniu z gęstością zaludnienia: Jeśli widzisz nagłówek „dziesiątki bilionów”, sprawdź, czy odnosi się on do eksperci MoE or aktywnych parametrów na token — nie są takie same.
  4. Testy porównawcze biorą górę nad spekulacjami przy podejmowaniu decyzji dotyczących produktów. Zmierz model pod kątem zadań, na których Ci zależy (dokładność, opóźnienie, koszt). Ustawienia API udostępniane przez OpenAI (rozwlekłość, wysiłek wnioskowania) prawdopodobnie będą miały większe znaczenie niż niezweryfikowana liczba parametrów.

Jak taniej wywołać API GPT-5?

CometAPI to ujednolicona platforma API, która agreguje ponad 500 modeli AI od wiodących dostawców — takich jak seria GPT firmy OpenAI, Gemini firmy Google, Claude firmy Anthropic, Midjourney, Suno i innych — w jednym, przyjaznym dla programistów interfejsie. Oferując spójne uwierzytelnianie, formatowanie żądań i obsługę odpowiedzi, CometAPI radykalnie upraszcza integrację możliwości AI z aplikacjami. Niezależnie od tego, czy tworzysz chatboty, generatory obrazów, kompozytorów muzycznych czy oparte na danych potoki analityczne, CometAPI pozwala Ci szybciej iterować, kontrolować koszty i pozostać niezależnym od dostawcy — wszystko to przy jednoczesnym korzystaniu z najnowszych przełomów w ekosystemie AI.

Deweloperzy mogą uzyskać dostęp GPT-5 oraz Interfejs API GPT-5 Pro poprzez CometAPI, najnowsza wersja modelu jest zawsze aktualizowany na oficjalnej stronie internetowej. Na początek zapoznaj się z możliwościami modelu w Plac zabaw i zapoznaj się z Przewodnik po API aby uzyskać szczegółowe instrukcje. Przed uzyskaniem dostępu upewnij się, że zalogowałeś się do CometAPI i uzyskałeś klucz API. Interfejs API Comet zaoferuj cenę znacznie niższą niż oficjalna, aby ułatwić Ci integrację.

Gotowy do drogi?→ Zarejestruj się w CometAPI już dziś !

Jeśli chcesz poznać więcej wskazówek, poradników i nowości na temat sztucznej inteligencji, obserwuj nas na VKX oraz Discord!

Czytaj więcej

500+ modeli w jednym API

Do 20% zniżki