Home/Models/OpenAI/GPT-5.2
O

GPT-5.2

Wejście:$1.4/M
Wyjście:$11.2/M
Kontekst:400,000
Maks. wyjście:128,000
GPT-5.2 to wielowariantowy zestaw modeli (Instant, Thinking, Pro) zaprojektowany pod kątem lepszego rozumienia długich kontekstów, bardziej zaawansowanego programowania i korzystania z narzędzi oraz wyraźnie wyższej wydajności w profesjonalnych benchmarkach „knowledge-work”.
Nowy
Użycie komercyjne
Playground
Przegląd
Funkcje
Cennik
API

Czym jest API GPT-5.2

API GPT-5.2 jest tym samym co GPT-5.2 Thinking w ChatGPT. GPT-5.2 Thinking to wariant ze środkowej półki w rodzinie OpenAI GPT-5.2 zaprojektowany do głębszej pracy: wielostopniowego rozumowania, streszczania długich dokumentów, wysokiej jakości generowania kodu oraz profesjonalnej pracy opartej na wiedzy, gdzie dokładność i użyteczna struktura są ważniejsze niż czysta przepustowość. W API jest udostępniany jako model gpt-5.2 (Responses API / Chat Completions) i plasuje się między niskolatencyjnym wariantem Instant a bardziej jakościowym, lecz droższym wariantem Pro.

Główne funkcje

  • Bardzo długi kontekst i kompresja: efektywne okno 400K oraz narzędzia kompresji do zarządzania relewantnością w długich rozmowach i dokumentach.
  • Konfigurowalny nakład rozumowania: none | medium | high | xhigh (xhigh umożliwia maksymalne obliczenia wewnętrzne dla trudnego rozumowania). xhigh jest dostępne w wariantach Thinking/Pro.
  • Silniejsze wsparcie dla narzędzi i funkcji: pierwszorzędne wywoływanie narzędzi, gramatyki (CFG/Lark) do ograniczania wyjść do zdefiniowanej struktury oraz ulepszone zachowania agentowe upraszczające złożoną, wieloetapową automatyzację.
  • Wielomodalne rozumienie: bogatsze rozumienie obrazu + tekstu oraz integracja w wieloetapowych zadaniach.
  • Ulepszone bezpieczeństwo / obsługa treści wrażliwych: ukierunkowane interwencje ograniczające niepożądane odpowiedzi w obszarach takich jak samookaleczenie i inne wrażliwe konteksty.

Możliwości techniczne i specyfikacje (perspektywa dewelopera)

  • Punkty końcowe API i identyfikatory modeli: gpt-5.2 dla Thinking (Responses API), gpt-5.2-chat-latest dla przepływów chat/instant oraz gpt-5.2-pro dla poziomu Pro; dostępne przez Responses API i Chat Completions tam, gdzie wskazano.
  • Tokeny rozumowania i zarządzanie nakładem: API obsługuje jawne parametry przydzielania mocy obliczeniowej (nakładu rozumowania) na żądanie; większy nakład zwiększa opóźnienie i koszt, ale poprawia jakość wyjścia w złożonych zadaniach.
  • Narzędzia strukturyzowanych wyjść: obsługa gramatyk (Lark / CFG) do ograniczania wyjścia modelu do DSL lub dokładnej składni (przydatne dla SQL, JSON, generowania DSL).
  • Równoległe wywoływanie narzędzi i koordynacja agentowa: ulepszona równoległość i czystsza orkiestracja narzędzi zmniejszają potrzebę rozbudowanych promptów systemowych oraz wieloagentowego szkieletu.

Wydajność w benchmarkach i dane wspierające

OpenAI opublikowało szereg wewnętrznych i zewnętrznych wyników benchmarków dla GPT-5.2. Wybrane najważniejsze (liczby raportowane przez OpenAI):

  • GDPval (44 zawodów, praca wiedzo-centryczna) — GPT-5.2 Thinking „pokonuje lub dorównuje czołowym profesjonalistom branżowym w 70.9% porównań”; OpenAI podaje, że wyniki zostały uzyskane z >11× szybkością i <1% kosztem względem ekspertów na zadaniach GDPval (szacunki szybkości i kosztów są oparte historycznie). Zadania obejmują modele arkuszy kalkulacyjnych, prezentacje i krótkie filmy.
  • SWE-Bench Pro (kodowanie) — GPT-5.2 Thinking osiąga ≈55.6% na SWE-Bench Pro oraz ~80% na SWE-Bench Verified (tylko Python) według OpenAI, ustanawiając nowy stan sztuki dla oceny generowania kodu/inżynierii w ich testach. Przekłada się to na bardziej niezawodne debugowanie i poprawki end-to-end w praktyce, zgodnie z przykładami OpenAI.
  • GPQA Diamond (graduate-level science Q&A) — GPT-5.2 Pro: 93.2%, GPT-5.2 Thinking: 92.4% na GPQA Diamond (bez narzędzi, maksymalne rozumowanie).
  • Seria ARC-AGI — Na ARC-AGI-2 (bardziej wymagający benchmark płynnego rozumowania) GPT-5.2 Thinking uzyskał 52.9%, a GPT-5.2 Pro 54.2% (OpenAI mówi, że to nowe wyniki SOTA dla modeli w stylu chain-of-thought).
  • Długi kontekst (OpenAI MRCRv2) — GPT-5.2 Thinking wykazuje niemal 100% dokładności w wariancie 4-needle MRCR do 256k tokenów oraz znacząco lepsze wyniki względem GPT-5.1 w ustawieniach długiego kontekstu. (OpenAI opublikowało wykresy i tabele MRCRv2.)

GPT-5.2

Porównanie z konkurentami

  • vs Google Gemini 3 (Gemini 3 Pro / Deep Think): Gemini 3 Pro zostało upublicznione z ~1,048,576 (≈1M) token oknem kontekstu oraz szerokimi multimodalnymi wejściami (tekst, obraz, audio, wideo, PDF-y) i silnymi integracjami agentowymi przez Vertex AI / AI Studio. Na papierze większe okno kontekstu Gemini 3 wyróżnia się dla ekstremalnie dużych obciążeń w pojedynczej sesji; kompromisy obejmują zakres narzędzi i dopasowanie do ekosystemu.
  • vs Anthropic Claude Opus 4.5: Opus 4.5 akcentuje korporacyjne przepływy pracy związane z kodowaniem/agentami i raportuje silne wyniki SWE-bench oraz odporność w długich sesjach agentowych; Anthropic pozycjonuje Opus pod automatyzację i generowanie kodu z oknem kontekstu 200k oraz wyspecjalizowane integracje agent/Excel. Opus 4.5 to silny konkurent w automatyzacji i zadaniach kodowych w środowisku korporacyjnym.

Wniosek praktyczny: GPT-5.2 celuje w zrównoważony zestaw ulepszeń (kontekst 400k, wysokie wyjścia tokenów, ulepszone rozumowanie/kodowanie). Gemini 3 celuje w absolutnie największe konteksty pojedynczej sesji (≈1M), a Claude Opus skupia się na korporacyjnym inżynierstwie i odporności agentów. Wybieraj, dopasowując rozmiar kontekstu, potrzeby modalności, dopasowanie funkcji/narzędzi oraz kompromisy koszt/opóźnienie.

Jak uzyskać dostęp i korzystać z API GPT-5.2

Krok 1: Zarejestruj się po klucz API

Zaloguj się do cometapi.com. Jeśli nie jesteś jeszcze naszym użytkownikiem, zarejestruj się najpierw. Zaloguj się do swojej Konsola CometAPI. Uzyskaj klucz API (poświadczenie dostępu) do interfejsu. Kliknij „Add Token” przy tokenie API w centrum osobistym, pobierz klucz tokena: sk-xxxxx i zatwierdź.

Krok 2: Wyślij żądania do API GPT-5.2

Wybierz endpoint „gpt-5.2”, aby wysłać żądanie API i ustaw treść żądania. Metodę żądania i treść żądania znajdziesz w dokumentacji API na naszej stronie. Nasza strona udostępnia także test w Apifox dla Twojej wygody. Zastąp <YOUR_API_KEY> swoim rzeczywistym kluczem CometAPI z konta. Deweloperzy wywołują je przez Responses API / Chat endpoints.

Wstaw swoje pytanie lub prośbę do pola content — na to odpowie model. Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź.

Krok 3: Pobierz i zweryfikuj wyniki

Przetwórz odpowiedź API, aby uzyskać wygenerowaną odpowiedź. Po przetworzeniu interfejs API odpowiada statusem zadania i danymi wyjściowymi.

Zobacz też Gemini 3 Pro Preview API

Najczęściej zadawane pytania

What makes GPT-5.2 OpenAI's flagship model for developers?

GPT-5.2 is OpenAI's best model for coding and agentic tasks, combining a 400K context window with support for code interpreter, web search, file search, image generation, and MCP—making it the most versatile choice for complex workflows.

Does GPT-5.2 support model distillation?

Yes, GPT-5.2 uniquely supports distillation, allowing developers to use its outputs to train smaller, more efficient models for specific tasks while maintaining performance.

What is the knowledge cutoff date for GPT-5.2?

GPT-5.2 has a knowledge cutoff of August 31, 2025. For more recent information, you can enable web search through the Responses API to ground responses in current data.

Can GPT-5.2 process images and generate code simultaneously?

Yes, GPT-5.2 accepts image inputs and supports code interpreter, allowing it to analyze visual content and execute Python code in the same conversation—ideal for data visualization and analysis workflows.

How does GPT-5.2 compare to GPT-5 in pricing and performance?

GPT-5.2 costs $1.75/$14 per million tokens (input/output) compared to GPT-5's $1.25, but delivers materially higher performance on professional benchmarks including coding, long-context understanding, and tool use.

What endpoints does GPT-5.2 support?

GPT-5.2 supports Chat Completions, Responses API, Batch processing, and Assistants API—but does not support fine-tuning, Realtime API, or audio modalities.

Funkcje dla GPT-5.2

Poznaj kluczowe funkcje GPT-5.2, zaprojektowane w celu zwiększenia wydajności i użyteczności. Odkryj, jak te możliwości mogą przynieść korzyści Twoim projektom i poprawić doświadczenie użytkownika.

Cennik dla GPT-5.2

Poznaj konkurencyjne ceny dla GPT-5.2, zaprojektowane tak, aby pasowały do różnych budżetów i potrzeb użytkowania. Nasze elastyczne plany zapewniają, że płacisz tylko za to, czego używasz, co ułatwia skalowanie w miarę wzrostu Twoich wymagań. Odkryj, jak GPT-5.2 może ulepszyć Twoje projekty przy jednoczesnym utrzymaniu kosztów na rozsądnym poziomie.
Cena Comet (USD / M Tokens)Oficjalna cena (USD / M Tokens)
Wejście:$1.4/M
Wyjście:$11.2/M
Wejście:$1.75/M
Wyjście:$14/M

Przykładowy kod i API dla GPT-5.2

Uzyskaj dostęp do kompleksowego przykładowego kodu i zasobów API dla GPT-5.2, aby usprawnić proces integracji. Nasza szczegółowa dokumentacja zapewnia wskazówki krok po kroku, pomagając wykorzystać pełny potencjał GPT-5.2 w Twoich projektach.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "none"},
)

print(response.output_text)

Więcej modeli