МоделиПоддержкаПредприятиеБлог
500+ API моделей ИИ, всё в одном API. Только в CometAPI
API моделей
Разработчик
Быстрый стартДокументацияПанель управления API
Ресурсы
AI МоделиБлогПредприятиеЖурнал измененийО нас
2025 CometAPI. Все права защищены.Политика конфиденциальностиУсловия обслуживания
Home/Models/OpenAI/GPT-5.2 Pro
O

GPT-5.2 Pro

Ввод:$16.8/M
Вывод:$134.4/M
Контекст:400,000
Максимальный вывод:128,000
gpt-5.2-pro — самая мощная, ориентированная на продакшн модель семейства GPT-5.2 от OpenAI, доступная через Responses API для рабочих нагрузок, требующих максимальной точности, многошагового рассуждения, широкого использования инструментов и наибольших доступных у OpenAI лимитов контекста и пропускной способности.
Новый
Коммерческое использование
Playground
Обзор
Функции
Цены
API

Что такое GPT-5.2-Pro

GPT-5.2-Pro — уровень «Pro» в семействе GPT-5.2 от OpenAI, предназначенный для самых сложных задач — многошагового рассуждения, сложного кода, синтеза больших документов и профессиональной интеллектуальной работы. Он доступен в Responses API для поддержки многоходовых диалогов и продвинутых функций API (инструменты, режимы рассуждения, компакция и т. п.). Вариант Pro жертвует пропускной способностью и стоимостью ради максимального качества ответов и более сильной безопасности/согласованности в сложных доменах.

Основные возможности (что gpt-5.2-pro даёт приложениям)

  • Наивысшая точность рассуждений: Pro поддерживает топовые настройки рассуждений OpenAI (включая xhigh), обменивая задержку и вычислительные ресурсы на более глубокие внутренние проходы рассуждений и улучшенное уточнение решения в стиле chain-of-thought.
  • Работа с большим контекстом и длинными документами: спроектирован для сохранения точности на очень длинных контекстах (OpenAI проводила бенчмарки до 256k+ токенов для вариантов семейства), что делает уровень подходящим для обзора юридических/технических документов, корпоративных баз знаний и длительных состояний агентов.
  • Усиленное выполнение инструментов и агентов: разработан для надёжного вызова наборов инструментов (списки разрешённых инструментов, аудиторские хуки и более богатые интеграции) и работы как «мега‑агент», способный оркестрировать несколько подтулов и многошаговые рабочие процессы.
  • Улучшенная фактичность и меры безопасности: OpenAI отмечает существенное снижение галлюцинаций и нежелательных ответов по внутренним метрикам безопасности у GPT-5.2 по сравнению с предыдущими моделями; это подкреплено обновлениями system card и целевым обучением безопасности.

Технические возможности и характеристики (для разработчиков)

  • Конечная точка API и доступность: рекомендуется использовать Responses API для рабочих процессов уровня Pro; разработчики могут задавать reasoning.effort как none|medium|high|xhigh, чтобы настраивать объём внутренних вычислений на рассуждение. Pro предоставляет наивысшую детализацию xhigh.
  • Уровни усилия рассуждений: none | medium | high | xhigh (Pro и Thinking поддерживают xhigh для запусков с приоритетом качества). Этот параметр позволяет обменивать стоимость/задержку на качество.
  • Компакция и управление контекстом: новые функции компакции позволяют API управлять тем, что модель «помнит», и сокращать использование токенов при сохранении релевантного контекста — полезно для длинных диалогов и документоориентированных процессов.
  • Инструменты и кастомные инструменты: модели могут вызывать пользовательские инструменты (передавать им сырой текст при одновременном ограничении выходов модели); усиленные механизмы вызова инструментов и агентные паттерны в 5.2 уменьшают потребность в сложных системных промптах.

Производительность в бенчмарках

Ниже приведены наиболее релевантные, воспроизводимые ключевые показатели для GPT-5.2 Pro (проверенные/внутренние результаты OpenAI):

  • GDPval (бенчмарк профессиональной работы): GPT-5.2 Pro — 74.1% (победы/ничьи) на наборе GDPval — заметное улучшение относительно GPT-5.1. Метрика призвана приблизить ценность в реальных экономических задачах по многим профессиям.
  • ARC-AGI-1 (общее рассуждение): GPT-5.2 Pro — 90.5% (Подтверждено); Pro был отмечен как первая модель, превысившая 90% на этом бенчмарке.
  • Кодинг и инженерия ПО (SWE-Bench): значительный прогресс в многошаговом кодовом рассуждении; например, SWE-Bench Pro public и SWE-Lancer (IC Diamond) показывают существенные улучшения по сравнению с GPT-5.1 — репрезентативные числа для семейства: SWE-Bench Pro public ~55.6% (Thinking; по внутренним прогоном для Pro сообщались более высокие результаты).
  • Фактичность на длинном контексте (MRCRv2): семейство GPT-5.2 демонстрирует высокие показатели извлечения и «поиска иголки» в диапазоне 4k–256k (примеры: MRCRv2, 8 «иголок» при 16k–32k: 95.3% для GPT-5.2 Thinking; Pro сохранил высокую точность на более крупных окнах). Это иллюстрирует устойчивость семейства к задачам с длинным контекстом — ключевое преимущество Pro.

Как gpt-5.2-pro сравнивается с аналогами и другими уровнями GPT-5.2

  • против GPT-5.2 Thinking / Instant:: gpt-5.2-pro отдаёт приоритет точности и максимальному рассуждению (xhigh) над задержкой/стоимостью. gpt-5.2 (Thinking) занимает промежуточное положение для более глубоких задач, а gpt-5.2-chat-latest (Instant) настроен на низкую задержку. Выбирайте Pro для самых ценных, ресурсоёмких задач.
  • По сравнению с Google Gemini 3 и другими передовыми моделями: GPT-5.2 (семейство) — конкурентный ответ OpenAI на Gemini 3. Лидеры зависят от задачи: на некоторых бенчмарках уровня магистратуры по естественным наукам и профессиональным задачам GPT-5.2 Pro и Gemini 3 близки; в узких областях кодинга или специализированных доменах результаты могут варьироваться.
  • По сравнению с GPT-5.1 / GPT-5: Pro показывает существенный рост в GDPval, ARC-AGI, кодовых бенчмарках и метриках длинного контекста против GPT-5.1 и добавляет новые API-настройки (рассуждение xhigh, компакция). OpenAI сохранит доступ к более ранним вариантам на время перехода.

Практические сценарии и рекомендуемые шаблоны

Высокоценные сценарии, где уместен Pro

  • Сложное финансовое моделирование, синтез и анализ больших таблиц, где важны точность и многошаговое рассуждение (OpenAI сообщала о улучшениях в задачах с банковскими таблицами для инвестбанкинга).
  • Синтез длинных юридических или научных документов, где контекст на 400k токенов позволяет сохранить целые отчёты, приложения и цепочки цитирований.
  • Высококачественная генерация кода и многофайловый рефакторинг для корпоративных кодовых баз (повышенное xhigh‑рассуждение в Pro помогает с многошаговыми трансформациями программ).
  • Стратегическое планирование, многостадийная оркестрация проектов и агентные рабочие процессы, использующие пользовательские инструменты и требующие надёжного вызова инструментов.

Когда лучше выбрать Thinking или Instant

  • Выбирайте Instant для быстрых, более дешёвых разговорных задач и интеграций редакторов.
  • Выбирайте Thinking для более глубоких, но чувствительных к задержке задач, где есть ограничение по стоимости, но важно качество.

Как получить доступ и использовать GPT-5.2 pro API

Шаг 1: Зарегистрируйтесь для получения API-ключа

Войдите на cometapi.com. Если вы ещё не являетесь нашим пользователем, сначала зарегистрируйтесь. Войдите в свою CometAPI console. Получите учётные данные — API key интерфейса. Нажмите «Add Token» в разделе API token в личном кабинете, получите ключ токена: sk-xxxxx и отправьте.

Шаг 2: Отправьте запросы к GPT-5.2 pro API

Выберите конечную точку «gpt-5.2-pro» для отправки API‑запроса и задайте тело запроса. Метод и тело запроса берутся из документации API на нашем сайте. Наш сайт также предоставляет Apifox тест для вашего удобства. Замените <YOUR_API_KEY> на ваш фактический ключ CometAPI из аккаунта. Где вызывать: API в стиле Responses.

Вставьте свой вопрос или запрос в поле content — именно на это модель ответит. Обработайте ответ API, чтобы получить сгенерированный результат.

Шаг 3: Извлеките и проверьте результаты

Обработайте ответ API, чтобы получить сгенерированный результат. После обработки API отвечает статусом задачи и выходными данными.

См. также Gemini 3 Pro Preview API

ЧАВО

Почему GPT-5.2 Pro работает только с Responses API?

GPT-5.2 Pro доступен исключительно через Responses API, чтобы обеспечивать многошаговые взаимодействия с моделью до формирования ответа на API-запросы, поддерживая продвинутые сценарии, такие как цепочки инструментов и длительные сессии рассуждения, требующие управления постоянным состоянием.

Какие уровни вычислительных усилий поддерживает GPT-5.2 Pro?

GPT-5.2 Pro поддерживает три уровня вычислительных усилий: medium, high и xhigh — позволяя разработчикам находить баланс между качеством ответа и задержкой при решении сложных задач.

Как GPT-5.2 Pro обрабатывает длительные запросы?

Выполнение некоторых запросов GPT-5.2 Pro может занимать несколько минут из-за глубокого процесса рассуждения модели. OpenAI рекомендует использовать фоновый режим, чтобы избежать тайм-аутов при выполнении особенно сложных задач.

К каким инструментам GPT-5.2 Pro может получать доступ через Responses API?

GPT-5.2 Pro поддерживает web search, file search, image generation и MCP (Model Context Protocol), но, что важно, не поддерживает инструменты code interpreter и computer use.

Когда следует выбирать GPT-5.2 Pro вместо стандартной GPT-5.2?

Выбирайте GPT-5.2 Pro, когда ваша нагрузка требует максимальной точности, многошагового рассуждения или широкой оркестрации инструментов — он предназначен для производственных сценариев с крупнейшими бюджетами контекста и пропускной способности, которые предлагает OpenAI.

Функции для GPT-5.2 Pro

Изучите ключевые функции GPT-5.2 Pro, разработанные для повышения производительности и удобства использования. Узнайте, как эти возможности могут принести пользу вашим проектам и улучшить пользовательский опыт.

Цены для GPT-5.2 Pro

Изучите конкурентоспособные цены на GPT-5.2 Pro, разработанные для различных бюджетов и потребностей использования. Наши гибкие планы гарантируют, что вы платите только за то, что используете, что упрощает масштабирование по мере роста ваших требований. Узнайте, как GPT-5.2 Pro может улучшить ваши проекты, сохраняя при этом управляемые расходы.
Цена Comet (USD / M Tokens)Официальная цена (USD / M Tokens)Скидка
Ввод:$16.8/M
Вывод:$134.4/M
Ввод:$21/M
Вывод:$168/M
-20%

Пример кода и API для GPT-5.2 Pro

GPT-5.2-Pro — это самый качественный вариант семейства GPT-5.2 от OpenAI, разработанный для самых сложных и наиболее ценных задач, связанных со знаниями и технологиями.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

async function main() {
  const response = await client.responses.create({
    model: "gpt-5.2-pro",
    input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning: {
    effort: "high"
  }
  });

  console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.2-pro",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "high"
    }
}'

Больше моделей

A

Claude Opus 4.6

Ввод:$4/M
Вывод:$20/M
Claude Opus 4.6 — большая языковая модель класса «Opus» компании Anthropic, выпущенная в феврале 2026 года. Она позиционируется как «рабочая лошадка» для интеллектуального труда и исследовательских рабочих процессов — ориентирована на улучшение рассуждений на длинных контекстах, многошагового планирования, использования инструментов (включая агентные программные рабочие процессы) и выполнения компьютерных задач, таких как автоматизированное создание слайдов и электронных таблиц.
A

Claude Sonnet 4.6

Ввод:$2.4/M
Вывод:$12/M
Claude Sonnet 4.6 — наша самая мощная на сегодняшний день модель Sonnet. Это полноценное обновление навыков модели в областях программирования, использования компьютера, рассуждений с длинным контекстом, агентного планирования, интеллектуальной работы и дизайна. Sonnet 4.6 также поддерживает окно контекста на 1M токенов в бета-версии.
O

GPT-5.4 nano

Ввод:$0.16/M
Вывод:$1/M
GPT-5.4 nano предназначен для задач, в которых наибольшее значение имеют скорость и затраты, таких как классификация, извлечение данных, ранжирование и подагенты.
O

GPT-5.4 mini

Ввод:$0.6/M
Вывод:$3.6/M
GPT-5.4 mini сочетает сильные стороны GPT-5.4 с более быстрой и эффективной моделью, разработанной для высоконагруженных сценариев использования.
A

Claude Mythos Preview

A

Claude Mythos Preview

Скоро
Ввод:$60/M
Вывод:$240/M
Claude Mythos Preview является нашей самой мощной на сегодняшний день передовой моделью и демонстрирует поразительный скачок в результатах на многих оценочных бенчмарках по сравнению с нашей предыдущей передовой моделью Claude Opus 4.6.
X

mimo-v2-pro

Ввод:$0.8/M
Вывод:$2.4/M
MiMo-V2-Pro — флагманская базовая модель Xiaomi с более чем 1T общих параметров и длиной контекста 1M, глубоко оптимизированная для агентных сценариев. Она обладает высокой адаптивностью к универсальным агентным фреймворкам, таким как OpenClaw. В стандартных бенчмарках PinchBench и ClawBench она входит в число мировых лидеров, а по воспринимаемой производительности приближается к уровню Opus 4.6. MiMo-V2-Pro создана, чтобы служить мозгом агентных систем, оркестрировать сложные рабочие процессы, обеспечивать выполнение инженерных задач в production-среде и надежно выдавать результаты.

Связанные блоги

Может ли ChatGPT создавать презентации PowerPoint?
Mar 26, 2026
chat-gpt

Может ли ChatGPT создавать презентации PowerPoint?

За последние два года инструменты ИИ прошли путь от «помоги написать текст для слайдов» до «собери и экспортируй полноценный .pptx», а OpenAI и Microsoft добавили функции, которые делают создание презентации в PowerPoint в один клик или почти в один клик возможным. Теперь вопрос звучит уже не «Может ли ИИ помочь мне в работе?», а «Какую часть моей работы ИИ способен выполнить?». Среди самых востребованных задач — создание презентаций — повсеместной валюты деловой коммуникации. Много лет пользователи мечтали о простом запросе: «Привет, ChatGPT, сделай мне презентацию». В 2026 году эта мечта как никогда близка к реальности, хотя она сопряжена с нюансами, которые каждому профессионалу необходимо учитывать.
Cursor vs Claude Code vs Codex: что лучше для «vibe coding» в 2026 году?
Feb 2, 2026

Cursor vs Claude Code vs Codex: что лучше для «vibe coding» в 2026 году?

В стремительно развивающемся мире разработки Vibe Code разработчики спорят, какие инструменты обеспечивают наиболее продуктивные, интуитивные и надёжные рабочие процессы. Сегодняшнее сравнение сводит трёх ведущих агентов — Cursor, Claude Code и OpenAI Codex — в очное противостояние, фокусируясь на зарождающейся парадигме «vibe coding», ценах, возможностях, операционных аспектах, использовании и производительности в реальных условиях.
Как запустить openClaw (Moltbot/ Clawdbot ) на локальных LLM без API
Feb 1, 2026
clawdbot
openclaw

Как запустить openClaw (Moltbot/ Clawdbot ) на локальных LLM без API

OpenClaw — ассистент ИИ с открытым исходным кодом, начавший своё существование как Clawdbot (и ненадолго Moltbot), — стремительно оказался в центре внимания благодаря персистентной памяти, глубокому локальному доступу и широким интеграциям с мессенджерами. Эта популярность вызвала вопросы о том, как запускать систему, не полагаясь на облачные API. Решение заключается в запуске OpenClaw на локальных больших языковых моделях (LLMs) через ollama или другие, полностью без подключения к интернету и без абонентской платы.
Openclaw(Moltbot /Clawdbot) : Руководство по установке+ инструкция по хостингу API
Jan 29, 2026
clawdbot

Openclaw(Moltbot /Clawdbot) : Руководство по установке+ инструкция по хостингу API

Moltbot — ранее известный в интернете как Clawdbot — появился в лентах в конце января 2026 года как агентный персональный ассистент формата «сделай сам», который действительно выполняет задачи за вас: очищает почтовые ящики, выполняет команды, ищет локальные файлы и отвечает через выбранное вами чат-приложение (Telegram, WhatsApp, Discord, iMessage и т. д.).
Как «Vibe Coding» разработать небольшое мобильное приложение начинающему
Jan 28, 2026
vibe-coding

Как «Vibe Coding» разработать небольшое мобильное приложение начинающему

Vibe Coding крошечного мобильного приложения для новичка — это про импульс и ощущения: начните с очень простой идеи (например, счётчика или простого приложения задач), выберите простой фреймворк или инструмент (Codex, Cursor и т. д.), соберите что-то, что начнёт работать как можно быстрее, не беспокоясь о чистоте кода, затем настраивайте интерфейс и взаимодействия по ощущениям, тестируя на своём телефоне. Когда застрянете, ищите или спрашивайте у ИИ вместо того, чтобы зацикливаться, и как только всё работает и ощущается хорошо, остановитесь и выпустите. Цель — поток и уверенность, а не совершенство.