Mô hìnhHỗ trợDoanh nghiệpBlog
500+ API Mô hình AI, Tất cả trong Một API. Chỉ cần CometAPI
API Mô hình
Nhà phát triển
Bắt đầu nhanhTài liệuBảng Điều Khiển API
Tài nguyên
Mô hình AIBlogDoanh nghiệpNhật ký thay đổiGiới thiệu
2025 CometAPI. Bảo lưu mọi quyền.Chính sách Bảo mậtĐiều khoản Dịch vụ
Home/Models/OpenAI/GPT-5.2 Pro
O

GPT-5.2 Pro

Đầu vào:$16.8/M
Đầu ra:$134.4/M
Bối cảnh:400,000
Đầu ra tối đa:128,000
gpt-5.2-pro là thành viên hướng tới môi trường sản xuất có năng lực cao nhất trong dòng GPT-5.2 của OpenAI, được cung cấp qua Responses API cho các khối lượng công việc đòi hỏi độ trung thực tối đa, suy luận nhiều bước, sử dụng công cụ rộng rãi và các hạn mức ngữ cảnh/thông lượng lớn nhất mà OpenAI cung cấp.
Mới
Sử dụng thương mại
Playground
Tổng quan
Tính năng
Giá cả
API

GPT-5.2-Pro là gì

GPT-5.2-Pro là cấp “Pro” trong họ GPT-5.2 của OpenAI, hướng tới những bài toán khó nhất — lập luận nhiều bước, mã phức tạp, tổng hợp tài liệu lớn và công việc tri thức chuyên nghiệp. Được cung cấp trong Responses API để hỗ trợ tương tác đa lượt và các tính năng API nâng cao (tooling, chế độ lập luận, nén, v.v.). Biến thể Pro đánh đổi thông lượng và chi phí để đạt chất lượng câu trả lời tối đa cùng mức an toàn/tính nhất quán mạnh hơn trong các lĩnh vực khó.

Tính năng chính (những gì gpt-5.2-pro mang đến cho ứng dụng)

  • Lập luận mức trung thực cao nhất: Pro hỗ trợ các thiết lập lập luận hàng đầu của OpenAI (bao gồm xhigh) để đánh đổi độ trễ và tài nguyên tính toán lấy các lượt lập luận nội bộ sâu hơn và cải thiện tinh chỉnh lời giải theo kiểu chain-of-thought.
  • Ngữ cảnh lớn, thành thạo tài liệu dài: được thiết kế để duy trì độ chính xác trên các ngữ cảnh rất dài (OpenAI đã benchmark lên tới 256k+ token cho các biến thể trong họ), khiến cấp này phù hợp cho rà soát tài liệu pháp lý/kỹ thuật, kho tri thức doanh nghiệp và trạng thái agent chạy dài.
  • Thực thi công cụ & agent mạnh hơn: được thiết kế để gọi bộ công cụ một cách tin cậy (danh sách allowed-tools, auditing hooks và tích hợp công cụ phong phú hơn) và đóng vai “mega-agent” có thể điều phối nhiều công cụ phụ và các quy trình nhiều bước.
  • Cải thiện tính xác thực & giảm thiểu rủi ro an toàn: OpenAI báo cáo giảm đáng kể ảo giác và phản hồi không mong muốn trên các chỉ số an toàn nội bộ đối với GPT-5.2 so với các mô hình trước đó, được hỗ trợ bởi cập nhật system card và huấn luyện an toàn có mục tiêu.

Năng lực & thông số kỹ thuật (dành cho nhà phát triển)

  • Điểm cuối API & khả dụng: Responses API là tích hợp được khuyến nghị cho các workflow cấp Pro; nhà phát triển có thể đặt reasoning.effort thành none|medium|high|xhigh để tinh chỉnh mức tính toán nội bộ dành cho lập luận. Pro cung cấp mức xhigh cao nhất.
  • Mức độ nỗ lực lập luận: none | medium | high | xhigh (Pro và Thinking hỗ trợ xhigh cho các lần chạy ưu tiên chất lượng). Tham số này cho phép bạn đánh đổi chi phí/độ trễ lấy chất lượng.
  • Nén & quản lý ngữ cảnh: Các tính năng nén mới cho phép API quản lý những gì mô hình “nhớ” và giảm sử dụng token đồng thời bảo toàn ngữ cảnh liên quan — hữu ích cho hội thoại dài và quy trình tài liệu.
  • Tooling & công cụ tùy chỉnh: Mô hình có thể gọi các công cụ tùy chỉnh (gửi văn bản thô tới công cụ đồng thời ràng buộc đầu ra của mô hình); khả năng gọi công cụ và mẫu agentic mạnh hơn trong 5.2 giảm nhu cầu về prompt hệ thống phức tạp.

Hiệu năng benchmark

Dưới đây là các con số tiêu biểu, có thể tái lập, liên quan nhất đối với GPT-5.2 Pro (kết quả đã xác minh/nội bộ của OpenAI):

  • GDPval (benchmark công việc chuyên nghiệp): GPT-5.2 Pro — 74.1% (thắng/hòa) trên bộ GDPval — cải thiện rõ rệt so với GPT-5.1. Thước đo này được thiết kế để xấp xỉ giá trị trong các tác vụ kinh tế thực tế trên nhiều ngành nghề.
  • ARC-AGI-1 (lập luận tổng quát): GPT-5.2 Pro — 90.5% (Verified); Pro được báo cáo là mô hình đầu tiên vượt 90% trên benchmark này.
  • Lập trình & kỹ thuật phần mềm (SWE-Bench): tăng mạnh trong lập luận mã nhiều bước; ví dụ, SWE-Bench Pro public và SWE-Lancer (IC Diamond) cho thấy cải thiện đáng kể so với GPT-5.1 — con số đại diện của họ: SWE-Bench Pro public ~55.6% (Thinking; kết quả Pro cao hơn trong các lần chạy nội bộ).
  • Tính xác thực trên ngữ cảnh dài (MRCRv2): họ GPT-5.2 cho thấy điểm truy hồi và tìm “needle” cao trên dải 4k–256k (ví dụ: MRCRv2 8 needles tại 16k–32k: 95.3% đối với GPT-5.2 Thinking; Pro duy trì độ chính xác cao ở cửa sổ lớn hơn). Những điều này cho thấy khả năng chống chịu của họ đối với các tác vụ ngữ cảnh dài — một điểm bán của Pro.

So sánh gpt-5.2-pro với các đối thủ và các cấp GPT-5.2 khác

  • vs GPT-5.2 Thinking / Instant:: gpt-5.2-pro ưu tiên độ trung thực và lập luận tối đa (xhigh) hơn là độ trễ/chi phí. gpt-5.2 (Thinking) nằm ở giữa cho công việc sâu hơn, và gpt-5.2-chat-latest (Instant) được tinh chỉnh cho trò chuyện độ trễ thấp. Chọn Pro cho các tác vụ giá trị cao, đòi hỏi nhiều tính toán.
  • So với Google Gemini 3 và các mô hình tiên phong khác: GPT-5.2 (họ) là phản hồi cạnh tranh của OpenAI đối với Gemini 3. Bảng xếp hạng cho thấy người dẫn đầu phụ thuộc tác vụ — trên một số benchmark khoa học trình độ sau đại học và công việc chuyên nghiệp, GPT-5.2 Pro và Gemini 3 khá sát; trong các bài toán mã hẹp hoặc lĩnh vực chuyên biệt, kết quả có thể khác.
  • So với GPT-5.1 / GPT-5: Pro cho thấy cải thiện đáng kể ở GDPval, ARC-AGI, các benchmark mã và chỉ số ngữ cảnh dài so với GPT-5.1, và bổ sung các điều khiển API mới (xhigh reasoning, nén). OpenAI sẽ giữ các biến thể trước đó khả dụng trong giai đoạn chuyển đổi.

Trường hợp sử dụng thực tế và mẫu khuyến nghị

Trường hợp giá trị cao nơi Pro phù hợp

  • Mô hình tài chính phức tạp, tổng hợp và phân tích bảng tính lớn nơi độ chính xác và lập luận nhiều bước là quan trọng (OpenAI báo cáo điểm số tốt hơn trong các tác vụ bảng tính ngân hàng đầu tư).
  • Tổng hợp tài liệu pháp lý hoặc khoa học dài nơi bối cảnh 400k token bảo toàn toàn bộ báo cáo, phụ lục và chuỗi trích dẫn.
  • Sinh mã chất lượng cao và tái cấu trúc đa tệp cho codebase doanh nghiệp (lập luận xhigh cao hơn của Pro giúp cho các biến đổi chương trình nhiều bước).
  • Lập kế hoạch chiến lược, điều phối dự án nhiều giai đoạn và các workflow kiểu agent sử dụng công cụ tùy chỉnh và yêu cầu khả năng gọi công cụ vững chắc.

Khi nên chọn Thinking hoặc Instant thay thế

  • Chọn Instant cho các tác vụ hội thoại nhanh, chi phí thấp và tích hợp trình soạn thảo.
  • Chọn Thinking cho công việc sâu hơn nhưng nhạy cảm với độ trễ, nơi chi phí bị giới hạn nhưng chất lượng vẫn quan trọng.

Cách truy cập và sử dụng GPT-5.2 pro API

Bước 1: Đăng ký lấy khóa API

Đăng nhập vào cometapi.com. Nếu bạn chưa là người dùng của chúng tôi, vui lòng đăng ký trước. Đăng nhập vào CometAPI console. Lấy khóa truy cập API key của giao diện. Nhấp “Add Token” tại mục API token trong trung tâm cá nhân, lấy khóa token: sk-xxxxx và gửi.

Bước 2: Gửi yêu cầu tới GPT-5.2 pro API

Chọn điểm cuối “gpt-5.2-pro” để gửi yêu cầu API và đặt phần thân yêu cầu. Phương thức và phần thân yêu cầu được lấy từ tài liệu API trên trang web của chúng tôi. Trang web của chúng tôi cũng cung cấp bài kiểm thử Apifox để bạn thuận tiện. Thay <YOUR_API_KEY> bằng khóa CometAPI thực từ tài khoản của bạn. Nơi gọi: Responses-style APIs.

Chèn câu hỏi hoặc yêu cầu của bạn vào trường content — đây là nội dung mà mô hình sẽ phản hồi. Xử lý phản hồi API để lấy câu trả lời được tạo.

Bước 3: Truy xuất và xác minh kết quả

Xử lý phản hồi API để lấy câu trả lời được tạo. Sau khi xử lý, API phản hồi trạng thái tác vụ và dữ liệu đầu ra.

Xem thêm Gemini 3 Pro Preview API

Câu hỏi thường gặp

Tại sao GPT-5.2 Pro chỉ hoạt động với Responses API?

GPT-5.2 Pro chỉ khả dụng độc quyền thông qua Responses API để cho phép các tương tác đa lượt với mô hình trước khi phản hồi các yêu cầu API, hỗ trợ các quy trình làm việc nâng cao như chuỗi công cụ và các phiên suy luận kéo dài yêu cầu quản lý trạng thái liên tục.

GPT-5.2 Pro hỗ trợ những mức độ nỗ lực suy luận nào?

GPT-5.2 Pro hỗ trợ ba mức độ nỗ lực suy luận: medium, high và xhigh — cho phép các nhà phát triển cân bằng chất lượng phản hồi với độ trễ cho các tác vụ giải quyết vấn đề phức tạp.

GPT-5.2 Pro xử lý các yêu cầu chạy lâu như thế nào?

Một số yêu cầu GPT-5.2 Pro có thể mất vài phút để hoàn tất do quá trình suy luận chuyên sâu của mô hình. OpenAI khuyến nghị sử dụng chế độ nền để tránh hết thời gian chờ đối với các tác vụ đặc biệt khó.

GPT-5.2 Pro có thể truy cập những công cụ nào thông qua Responses API?

GPT-5.2 Pro hỗ trợ tìm kiếm web, tìm kiếm tệp, tạo hình ảnh và MCP (Model Context Protocol), nhưng đáng chú ý là không hỗ trợ các công cụ code interpreter hoặc sử dụng máy tính.

Khi nào tôi nên chọn GPT-5.2 Pro thay vì GPT-5.2 tiêu chuẩn?

Hãy chọn GPT-5.2 Pro khi khối lượng công việc của bạn đòi hỏi độ trung thực tối đa, suy luận nhiều bước hoặc điều phối công cụ trên diện rộng — nó được thiết kế cho các kịch bản sản xuất với ngữ cảnh và ngân sách thông lượng lớn nhất mà OpenAI cung cấp.

Tính năng cho GPT-5.2 Pro

Khám phá các tính năng chính của GPT-5.2 Pro, được thiết kế để nâng cao hiệu suất và khả năng sử dụng. Tìm hiểu cách các khả năng này có thể mang lại lợi ích cho dự án của bạn và cải thiện trải nghiệm người dùng.

Giá cả cho GPT-5.2 Pro

Khám phá mức giá cạnh tranh cho GPT-5.2 Pro, được thiết kế để phù hợp với nhiều ngân sách và nhu cầu sử dụng khác nhau. Các gói linh hoạt của chúng tôi đảm bảo bạn chỉ trả tiền cho những gì bạn sử dụng, giúp dễ dàng mở rộng quy mô khi yêu cầu của bạn tăng lên. Khám phá cách GPT-5.2 Pro có thể nâng cao các dự án của bạn trong khi vẫn kiểm soát được chi phí.
Giá Comet (USD / M Tokens)Giá Chính Thức (USD / M Tokens)Giảm giá
Đầu vào:$16.8/M
Đầu ra:$134.4/M
Đầu vào:$21/M
Đầu ra:$168/M
-20%

Mã mẫu và API cho GPT-5.2 Pro

GPT-5.2-Pro là biến thể có chất lượng cao nhất trong dòng GPT-5.2 của OpenAI, được thiết kế cho những tác vụ tri thức và kỹ thuật khó nhất, giá trị cao nhất.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

async function main() {
  const response = await client.responses.create({
    model: "gpt-5.2-pro",
    input: "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning: {
    effort: "high"
  }
  });

  console.log(response.output_text);
}

main();

Curl Code Example

curl https://api.cometapi.com/v1/responses \
     --header "Authorization: Bearer $COMETAPI_KEY" \
     --header "content-type: application/json" \
     --data \
'{
    "model": "gpt-5.2-pro",
    "input": "How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    "reasoning": {
        "effort": "high"
    }
}'

Thêm mô hình

A

Claude Opus 4.6

Đầu vào:$4/M
Đầu ra:$20/M
Claude Opus 4.6 là mô hình ngôn ngữ lớn thuộc lớp “Opus” của Anthropic, phát hành vào tháng 2 năm 2026. Mô hình này được định vị như một công cụ chủ lực cho công việc tri thức và các quy trình nghiên cứu — cải thiện khả năng suy luận với ngữ cảnh dài, lập kế hoạch nhiều bước, khả năng sử dụng công cụ (bao gồm các quy trình phần mềm agentic), và các tác vụ sử dụng máy tính như tự động tạo slide và bảng tính.
A

Claude Sonnet 4.6

Đầu vào:$2.4/M
Đầu ra:$12/M
Claude Sonnet 4.6 là mô hình Sonnet mạnh mẽ nhất của chúng tôi từ trước đến nay. Đây là một bản nâng cấp toàn diện về các kỹ năng của mô hình, bao gồm lập trình, sử dụng máy tính, suy luận trong ngữ cảnh dài, lập kế hoạch tác nhân, công việc tri thức và thiết kế. Sonnet 4.6 cũng có cửa sổ ngữ cảnh 1M token ở giai đoạn beta.
O

GPT-5.4 nano

Đầu vào:$0.16/M
Đầu ra:$1/M
GPT-5.4 nano được thiết kế cho các tác vụ trong đó tốc độ và chi phí là ưu tiên hàng đầu, như phân loại, trích xuất dữ liệu, xếp hạng và các tác tử phụ.
O

GPT-5.4 mini

Đầu vào:$0.6/M
Đầu ra:$3.6/M
GPT-5.4 mini đưa những điểm mạnh của GPT-5.4 vào một mô hình nhanh hơn, hiệu quả hơn, được thiết kế cho khối lượng công việc lớn.
A

Claude Mythos Preview

A

Claude Mythos Preview

Sắp ra mắt
Đầu vào:$60/M
Đầu ra:$240/M
Claude Mythos Preview là mô hình tiên phong mạnh mẽ nhất của chúng tôi cho đến nay, và cho thấy một bước nhảy vọt ấn tượng về điểm số trên nhiều thước đo đánh giá so với mô hình tiên phong trước đó của chúng tôi, Claude Opus 4.6.
X

mimo-v2-pro

Đầu vào:$0.8/M
Đầu ra:$2.4/M
MiMo-V2-Pro là mô hình nền tảng chủ lực của Xiaomi, sở hữu hơn 1T tham số tổng và độ dài ngữ cảnh 1M, được tối ưu sâu cho các kịch bản tác tử. Nó thích ứng cao với các khung tác tử tổng quát như OpenClaw. Trên các benchmark chuẩn PinchBench và ClawBench, mô hình này nằm trong nhóm hàng đầu toàn cầu, với hiệu năng cảm nhận tiệm cận Opus 4.6. MiMo-V2-Pro được thiết kế để đóng vai trò bộ não của các hệ thống tác tử, điều phối các quy trình công việc phức tạp, thực thi các tác vụ kỹ thuật trong môi trường sản xuất và cung cấp kết quả một cách đáng tin cậy.

Blog liên quan

ChatGPT có thể tạo bài thuyết trình PowerPoint không?
Mar 26, 2026
chat-gpt

ChatGPT có thể tạo bài thuyết trình PowerPoint không?

Trong hai năm qua, các công cụ AI đã chuyển từ “giúp tôi viết nội dung slide” sang “lắp ráp và xuất ra một tệp .pptx hoàn chỉnh”, và cả OpenAI lẫn Microsoft đều đã bổ sung các tính năng giúp việc tạo PowerPoint chỉ với một lần nhấp hoặc gần như một lần nhấp trở nên khả thi. Câu hỏi giờ đây không còn là “AI có thể giúp tôi làm việc không?” mà là “AI có thể làm bao nhiêu phần công việc của tôi?”. Trong số các tác vụ được yêu cầu nhiều nhất là việc tạo các bộ slide — “đồng tiền” phổ biến trong giao tiếp doanh nghiệp. Trong nhiều năm, người dùng đã mơ về một câu lệnh đơn giản: “Này ChatGPT, hãy tạo cho tôi một bài thuyết trình.” Đến năm 2026, giấc mơ đó gần với hiện thực hơn bao giờ hết, dù đi kèm những sắc thái mà mọi chuyên gia phải hiểu.
Cursor vs Claude Code vs Codex: Cái nào tốt hơn cho Vibe Coding vào năm 2026?
Feb 2, 2026

Cursor vs Claude Code vs Codex: Cái nào tốt hơn cho Vibe Coding vào năm 2026?

Trong thế giới phát triển Vibe Code đang thay đổi nhanh chóng, các nhà phát triển đang tranh luận về những công cụ nào giúp mang lại các quy trình làm việc có năng suất cao, trực quan và đáng tin cậy nhất. Bài so sánh hôm nay đặt ba tác nhân hàng đầu — Cursor, Claude Code và OpenAI Codex — đối đầu trực tiếp, tập trung vào mô hình “vibe coding” mới nổi, giá, tính năng, vận hành, cách sử dụng và hiệu năng thực tế.
Làm thế nào để chạy openClaw (Moltbot/ Clawdbot) trên các LLM cục bộ mà không dùng API
Feb 1, 2026
clawdbot
openclaw

Làm thế nào để chạy openClaw (Moltbot/ Clawdbot) trên các LLM cục bộ mà không dùng API

OpenClaw — trợ lý AI mã nguồn mở khởi đầu là Clawdbot (và trong thời gian ngắn là Moltbot) — đã bùng nổ trở thành tâm điểm nhờ khả năng ghi nhớ liên tục, khả năng truy cập cục bộ sâu, và tích hợp nhắn tin rộng rãi. Sự phổ biến đó đã đặt ra câu hỏi về cách vận hành hệ thống mà không phụ thuộc vào API đám mây. Giải pháp nằm ở việc chạy OpenClaw trên các Mô hình Ngôn ngữ Lớn (LLMs) cục bộ thông qua ollama hoặc bằng cách khác , hoàn toàn không cần kết nối internet hay phí đăng ký.
Openclaw(Moltbot /Clawdbot) : Hướng dẫn cài đặt+ Hướng dẫn triển khai API
Jan 29, 2026
clawdbot

Openclaw(Moltbot /Clawdbot) : Hướng dẫn cài đặt+ Hướng dẫn triển khai API

Moltbot — trước đây trên internet được biết đến với tên Clawdbot — đã bùng nổ trên các dòng thời gian vào cuối tháng 1 năm 2026 như một trợ lý cá nhân tự triển khai, có khả năng tự hành động, thực sự thực thi các tác vụ thay bạn: dọn hộp thư đến, chạy các lệnh, tìm kiếm tệp cục bộ, và trả lời thông qua ứng dụng chat ưa thích của bạn (Telegram, WhatsApp, Discord, iMessage, v.v.).
Cách “Vibe Coding” một ứng dụng di động nhỏ dành cho người mới bắt đầu
Jan 28, 2026
vibe-coding

Cách “Vibe Coding” một ứng dụng di động nhỏ dành cho người mới bắt đầu

Vibe Coding một ứng dụng di động nhỏ khi bạn mới bắt đầu chủ yếu là về đà và cảm giác: bắt đầu với một ý tưởng rất nhỏ (như bộ đếm hoặc ứng dụng việc cần làm đơn giản), chọn một framework hoặc công cụ dễ dùng (Codex, Cursor, v.v.), xây dựng thứ gì đó chạy được càng sớm càng tốt mà không bận tâm đến mã sạch, rồi tinh chỉnh UI và các tương tác theo cảm giác trong lúc thử trên điện thoại của bạn. Khi bị kẹt, hãy tìm kiếm hoặc hỏi AI thay vì suy nghĩ quá nhiều, và khi nó hoạt động ổn và mang lại cảm giác tốt, hãy dừng lại và phát hành. Mục tiêu là sự trôi chảy và tự tin, không phải sự hoàn hảo.