Home/Models/OpenAI/GPT-5.2 Pro
O

GPT-5.2 Pro

Đầu vào:$16.80/M
Đầu ra:$134.40/M
Bối cảnh:400,000
Đầu ra tối đa:128,000
gpt-5.2-pro là thành viên hướng tới môi trường sản xuất có năng lực cao nhất trong dòng GPT-5.2 của OpenAI, được cung cấp qua Responses API cho các khối lượng công việc đòi hỏi độ trung thực tối đa, suy luận nhiều bước, sử dụng công cụ rộng rãi và các hạn mức ngữ cảnh/thông lượng lớn nhất mà OpenAI cung cấp.
Mới
Sử dụng thương mại
Playground
Tổng quan
Tính năng
Giá cả
API

GPT-5.2-Pro là gì

GPT-5.2-Pro là hạng “Pro” của dòng GPT-5.2 của OpenAI, hướng tới các bài toán khó nhất — suy luận nhiều bước, mã phức tạp, tổng hợp tài liệu lớn và công việc tri thức chuyên nghiệp. Nó được cung cấp trong Responses API để hỗ trợ tương tác nhiều lượt và các tính năng API nâng cao (tooling, chế độ suy luận, compaction, v.v.). Biến thể Pro đánh đổi thông lượng và chi phí để đạt chất lượng câu trả lời tối đa và độ an toàn/nhất quán mạnh hơn ở các lĩnh vực khó.

Tính năng chính (những gì gpt-5.2-pro mang lại cho ứng dụng)

  • Khả năng suy luận độ trung thực cao nhất: Pro hỗ trợ các thiết lập suy luận cao nhất của OpenAI (bao gồm xhigh) để đánh đổi độ trễ và tài nguyên tính toán lấy các vòng suy luận nội bộ sâu hơn và cải thiện tinh chỉnh lời giải theo kiểu chuỗi suy nghĩ.
  • Thành thạo ngữ cảnh lớn, tài liệu dài: được thiết kế để duy trì độ chính xác trong các ngữ cảnh rất dài (OpenAI đã benchmark tới 256k+ token cho các biến thể của dòng), khiến hạng này phù hợp cho rà soát tài liệu pháp lý/kỹ thuật, kho tri thức doanh nghiệp và trạng thái tác nhân chạy dài.
  • Thực thi công cụ & tác nhân mạnh hơn: được thiết kế để gọi bộ công cụ một cách đáng tin cậy (danh sách allowed-tools, auditing hooks và tích hợp công cụ phong phú hơn) và hoạt động như một “mega-agent” có thể điều phối nhiều công cụ con và quy trình nhiều bước.
  • Tính xác thực & biện pháp an toàn được cải thiện: OpenAI báo cáo giảm đáng kể hiện tượng ảo tưởng và phản hồi không mong muốn trên các chỉ số an toàn nội bộ đối với GPT-5.2 so với các mô hình trước, được hỗ trợ bởi cập nhật system card và huấn luyện an toàn có mục tiêu.

Khả năng kỹ thuật & thông số (hướng tới nhà phát triển)

  • API endpoint & tính khả dụng: Responses API là tích hợp được khuyến nghị cho quy trình cấp Pro; nhà phát triển có thể đặt reasoning.effort thành none|medium|high|xhigh để điều chỉnh tài nguyên tính toán nội bộ dành cho suy luận. Pro cung cấp mức độ trung thực xhigh cao nhất.
  • Mức độ nỗ lực suy luận: none | medium | high | xhigh (Pro và Thinking hỗ trợ xhigh cho các lần chạy ưu tiên chất lượng). Tham số này cho phép bạn đánh đổi chi phí/độ trễ để lấy chất lượng.
  • Compaction & quản lý ngữ cảnh: Tính năng compaction mới cho phép API quản lý những gì mô hình “ghi nhớ” và giảm sử dụng token trong khi vẫn giữ ngữ cảnh liên quan — hữu ích cho hội thoại dài và quy trình tài liệu.
  • Tooling & công cụ tùy chỉnh: Mô hình có thể gọi các công cụ tùy chỉnh (gửi văn bản thô tới công cụ đồng thời ràng buộc đầu ra của mô hình); các mẫu gọi công cụ và tác nhân mạnh hơn trong 5.2 giảm nhu cầu về lời nhắc hệ thống phức tạp.

Hiệu năng benchmark

Dưới đây là các con số tiêu đề phù hợp nhất, có thể tái lập cho GPT-5.2 Pro (kết quả đã xác minh/nội bộ của OpenAI):

  • GDPval (benchmark công việc chuyên nghiệp): GPT-5.2 Pro — 74.1% (thắng/hòa) trên bộ GDPval — cải thiện đáng kể so với GPT-5.1. Thước đo này được thiết kế để ước lượng giá trị trong các nhiệm vụ kinh tế thực tế trên nhiều nghề nghiệp.
  • ARC-AGI-1 (suy luận tổng quát): GPT-5.2 Pro — 90.5% (Verified); Pro được báo cáo là mô hình đầu tiên vượt 90% trên benchmark này.
  • Lập trình & kỹ nghệ phần mềm (SWE-Bench): cải thiện mạnh mẽ trong suy luận mã nhiều bước; ví dụ, SWE-Bench Pro public và SWE-Lancer (IC Diamond) cho thấy cải thiện đáng kể so với GPT-5.1 — các con số đại diện của dòng: SWE-Bench Pro public ~55.6% (Thinking; kết quả Pro được báo cáo cao hơn trong các lần chạy nội bộ).
  • Tính xác thực trong ngữ cảnh dài (MRCRv2): dòng GPT-5.2 cho thấy điểm truy xuất và tìm “kim” cao trên các dải 4k–256k (ví dụ: MRCRv2 8 needles ở 16k–32k: 95.3% đối với GPT-5.2 Thinking; Pro duy trì độ chính xác cao ở cửa sổ lớn hơn). Những điều này cho thấy khả năng bền bỉ của dòng đối với các tác vụ ngữ cảnh dài, một điểm bán hàng của Pro.

gpt-5.2-pro so sánh với các đối thủ và các hạng GPT-5.2 khác như thế nào

  • so với GPT-5.2 Thinking / Instant:: gpt-5.2-pro ưu tiên độ trung thực và suy luận tối đa (xhigh) hơn là độ trễ/chi phí. gpt-5.2 (Thinking) nằm ở giữa cho công việc sâu hơn, còn gpt-5.2-chat-latest (Instant) được tinh chỉnh cho chat độ trễ thấp. Chọn Pro cho các tác vụ giá trị cao, tiêu tốn tính toán.
  • So với Google Gemini 3 và các mô hình tiên phong khác: GPT-5.2 (dòng) là phản ứng cạnh tranh của OpenAI với Gemini 3. Các bảng xếp hạng cho thấy kẻ thắng phụ thuộc vào nhiệm vụ — ở một số benchmark khoa học bậc cao và chuyên nghiệp, GPT-5.2 Pro và Gemini 3 khá sát nhau; trong lập trình hẹp hoặc các lĩnh vực chuyên biệt, kết quả có thể khác nhau.
  • So với GPT-5.1 / GPT-5: Pro cho thấy cải thiện đáng kể ở GDPval, ARC-AGI, các benchmark lập trình và các chỉ số ngữ cảnh dài so với GPT-5.1, và bổ sung các điều khiển API mới (suy luận xhigh, compaction). OpenAI sẽ giữ các biến thể trước đó khả dụng trong giai đoạn chuyển đổi.

Trường hợp sử dụng thực tế và mẫu khuyến nghị

Các trường hợp giá trị cao nơi Pro là hợp lý

  • Mô hình tài chính phức tạp, tổng hợp và phân tích bảng tính lớn nơi độ chính xác và suy luận nhiều bước là quan trọng (OpenAI báo cáo điểm số tốt hơn cho tác vụ bảng tính ngân hàng đầu tư).
  • Phân hợp tài liệu pháp lý hoặc khoa học dài, nơi ngữ cảnh 400k token giữ trọn báo cáo, phụ lục và chuỗi trích dẫn.
  • Tạo mã chất lượng cao và tái cấu trúc đa tệp cho nền mã doanh nghiệp (suy luận xhigh cao hơn của Pro giúp các biến đổi chương trình nhiều bước).
  • Lập kế hoạch chiến lược, điều phối dự án nhiều giai đoạn và quy trình tác nhân sử dụng công cụ tùy chỉnh và cần gọi công cụ mạnh mẽ.

Khi nên chọn Thinking hoặc Instant thay thế

  • Chọn Instant cho các tác vụ hội thoại nhanh, chi phí thấp và tích hợp trình soạn thảo.
  • Chọn Thinking cho công việc sâu nhưng nhạy cảm với độ trễ, nơi chi phí bị giới hạn nhưng chất lượng vẫn quan trọng.

Cách truy cập và sử dụng GPT-5.2 pro API

Bước 1: Đăng ký API Key

Đăng nhập vào cometapi.com. Nếu bạn chưa là người dùng của chúng tôi, vui lòng đăng ký trước. Đăng nhập vào CometAPI console. Lấy API key thông tin xác thực truy cập của giao diện. Nhấp “Add Token” tại API token trong trung tâm cá nhân, lấy khóa token: sk-xxxxx và gửi.

Bước 2: Gửi yêu cầu tới GPT-5.2 pro API

Chọn endpoint “gpt-5.2-pro” để gửi yêu cầu API và thiết lập request body. Phương thức yêu cầu và request body được lấy từ tài liệu API trên website của chúng tôi. Website cũng cung cấp kiểm thử Apifox để bạn thuận tiện. Thay thế <YOUR_API_KEY> bằng khóa CometAPI thực từ tài khoản của bạn. Nơi gọi: API kiểu Responses.

Chèn câu hỏi hoặc yêu cầu của bạn vào trường content — đây là nội dung mà mô hình sẽ phản hồi. Xử lý phản hồi API để lấy câu trả lời được tạo.

Bước 3: Truy xuất và xác minh kết quả

Xử lý phản hồi API để lấy câu trả lời được tạo. Sau khi xử lý, API sẽ phản hồi với trạng thái tác vụ và dữ liệu đầu ra.

Xem thêm Gemini 3 Pro Preview API

Câu hỏi thường gặp

Why does GPT-5.2 Pro only work with the Responses API?

GPT-5.2 Pro is exclusively available through the Responses API to enable multi-turn model interactions before responding to API requests, supporting advanced workflows like tool chaining and extended reasoning sessions that require persistent state management.

What reasoning effort levels does GPT-5.2 Pro support?

GPT-5.2 Pro supports three reasoning effort levels: medium, high, and xhigh—allowing developers to balance response quality against latency for complex problem-solving tasks.

How does GPT-5.2 Pro handle long-running requests?

Some GPT-5.2 Pro requests may take several minutes to complete due to the model's deep reasoning process. OpenAI recommends using background mode to avoid timeouts on particularly challenging tasks.

What tools can GPT-5.2 Pro access through the Responses API?

GPT-5.2 Pro supports web search, file search, image generation, and MCP (Model Context Protocol), but notably does not support code interpreter or computer use tools.

When should I choose GPT-5.2 Pro over standard GPT-5.2?

Choose GPT-5.2 Pro when your workload demands maximum fidelity, multi-step reasoning, or extensive tool orchestration—it's designed for production scenarios with the largest context and throughput budgets OpenAI offers.

Does GPT-5.2 Pro support structured outputs?

No, GPT-5.2 Pro does not currently support structured outputs or fine-tuning, making it best suited for high-fidelity generation tasks rather than constrained format requirements.

Tính năng cho GPT-5.2 Pro

Khám phá các tính năng chính của GPT-5.2 Pro, được thiết kế để nâng cao hiệu suất và khả năng sử dụng. Tìm hiểu cách các khả năng này có thể mang lại lợi ích cho dự án của bạn và cải thiện trải nghiệm người dùng.

Giá cả cho GPT-5.2 Pro

Khám phá mức giá cạnh tranh cho GPT-5.2 Pro, được thiết kế để phù hợp với nhiều ngân sách và nhu cầu sử dụng khác nhau. Các gói linh hoạt của chúng tôi đảm bảo bạn chỉ trả tiền cho những gì bạn sử dụng, giúp dễ dàng mở rộng quy mô khi yêu cầu của bạn tăng lên. Khám phá cách GPT-5.2 Pro có thể nâng cao các dự án của bạn trong khi vẫn kiểm soát được chi phí.
Giá Comet (USD / M Tokens)Giá Chính Thức (USD / M Tokens)
Đầu vào:$16.80/M
Đầu ra:$134.40/M
Đầu vào:$21.00/M
Đầu ra:$168.00/M

Mã mẫu và API cho GPT-5.2 Pro

GPT-5.2-Pro là biến thể có chất lượng cao nhất trong dòng GPT-5.2 của OpenAI, được thiết kế cho các tác vụ tri thức và kỹ thuật khó nhất, có giá trị cao nhất.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Thêm mô hình