Home/Models/OpenAI/GPT-5.2
O

GPT-5.2

Đầu vào:$1.4/M
Đầu ra:$11.2/M
Bối cảnh:400,000
Đầu ra tối đa:128,000
GPT-5.2 là bộ mô hình đa biến thể (Instant, Thinking, Pro) được thiết kế nhằm mang lại khả năng hiểu ngữ cảnh dài tốt hơn, khả năng lập trình và sử dụng công cụ mạnh hơn, và hiệu năng cao hơn đáng kể trên các chuẩn đánh giá “knowledge-work” ở mức chuyên nghiệp.
Mới
Sử dụng thương mại
Playground
Tổng quan
Tính năng
Giá cả
API

API GPT-5.2 là gì

API GPT-5.2 giống với GPT-5.2 Thinking trong ChatGPT. GPT-5.2 Thinking là biến thể tầm trung trong dòng GPT-5.2 của OpenAI, được thiết kế cho các tác vụ chuyên sâu: suy luận nhiều bước, tóm tắt tài liệu dài, tạo mã chất lượng cao và các công việc tri thức chuyên nghiệp, nơi độ chính xác và cấu trúc hữu ích quan trọng hơn thông lượng thuần túy. Trong API, nó được cung cấp dưới dạng mô hình gpt-5.2 (Responses API / Chat Completions), và nằm giữa biến thể Instant có độ trễ thấp và biến thể Pro chất lượng cao hơn nhưng đắt hơn.

Các tính năng chính

  • Ngữ cảnh rất dài & nén ngữ cảnh: cửa sổ hiệu quả 400K và các công cụ nén ngữ cảnh để quản lý mức độ liên quan trong các cuộc trò chuyện và tài liệu dài.
  • Mức độ suy luận có thể cấu hình: none | medium | high | xhigh (xhigh cho phép mức tính toán nội bộ tối đa cho các bài toán suy luận khó). xhigh được cung cấp cho các biến thể Thinking/Pro.
  • Hỗ trợ công cụ và hàm mạnh hơn: gọi công cụ hạng nhất, ngữ pháp (CFG/Lark) để ràng buộc đầu ra có cấu trúc, và các hành vi tác tử được cải thiện giúp đơn giản hóa tự động hóa phức tạp nhiều bước.
  • Hiểu đa phương thức: khả năng hiểu hình ảnh + văn bản phong phú hơn và tích hợp vào các tác vụ nhiều bước.
  • Cải thiện an toàn / xử lý nội dung nhạy cảm: các can thiệp có mục tiêu nhằm giảm các phản hồi không mong muốn trong những lĩnh vực như tự gây hại và các bối cảnh nhạy cảm khác.

Khả năng kỹ thuật & thông số kỹ thuật (góc nhìn nhà phát triển)

  • Các endpoint API & ID mô hình: gpt-5.2 cho Thinking (Responses API), gpt-5.2-chat-latest cho quy trình chat/instant, và gpt-5.2-pro cho tầng Pro; khả dụng qua Responses API và Chat Completions khi được chỉ định.
  • Token suy luận & quản lý mức độ nỗ lực: API hỗ trợ các tham số tường minh để phân bổ mức tính toán (mức độ suy luận) cho mỗi yêu cầu; mức độ cao hơn làm tăng độ trễ và chi phí nhưng cải thiện chất lượng đầu ra cho các tác vụ phức tạp.
  • Công cụ đầu ra có cấu trúc: hỗ trợ ngữ pháp (Lark / CFG) để ràng buộc đầu ra của mô hình vào một DSL hoặc cú pháp chính xác (hữu ích cho SQL, JSON, tạo DSL).
  • Gọi công cụ song song & điều phối tác tử: khả năng song song hóa được cải thiện và điều phối công cụ gọn gàng hơn giúp giảm nhu cầu về các system prompt phức tạp và kiến trúc đa tác tử.

Hiệu năng benchmark & dữ liệu hỗ trợ

OpenAI đã công bố nhiều kết quả benchmark nội bộ và bên ngoài cho GPT-5.2. Một số điểm nổi bật được chọn (theo số liệu OpenAI công bố):

  • GDPval (44 ngành nghề, công việc tri thức) — GPT-5.2 Thinking “vượt hoặc ngang bằng các chuyên gia hàng đầu trong ngành ở 70.9% số lần so sánh”; OpenAI báo cáo rằng đầu ra được tạo ra với tốc độ >11× và chi phí <1% so với các chuyên gia trên các tác vụ GDPval của họ (ước tính tốc độ và chi phí dựa trên dữ liệu lịch sử). Các tác vụ này bao gồm mô hình bảng tính, bài thuyết trình và video ngắn.
  • SWE-Bench Pro (lập trình) — theo OpenAI, GPT-5.2 Thinking đạt ≈55.6% trên SWE-Bench Pro và ~80% trên SWE-Bench Verified (chỉ Python), thiết lập trạng thái tốt nhất mới cho đánh giá tạo mã / kỹ thuật trong các bài kiểm tra của họ. Theo các ví dụ của OpenAI, điều này chuyển hóa thành việc gỡ lỗi và sửa lỗi đầu-cuối đáng tin cậy hơn trong thực tế.
  • GPQA Diamond (hỏi đáp khoa học trình độ sau đại học) — GPT-5.2 Pro: 93.2%, GPT-5.2 Thinking: 92.4% trên GPQA Diamond (không dùng công cụ, suy luận tối đa).
  • Chuỗi ARC-AGI — Trên ARC-AGI-2 (một benchmark suy luận linh hoạt khó hơn), GPT-5.2 Thinking đạt 52.9% và GPT-5.2 Pro đạt 54.2% (OpenAI cho biết đây là các mức tốt nhất mới cho các mô hình kiểu chain-of-thought).
  • Ngữ cảnh dài (OpenAI MRCRv2) — GPT-5.2 Thinking cho thấy độ chính xác gần 100% trên biến thể MRCR 4-needle tới 256k token và điểm số được cải thiện đáng kể so với GPT-5.1 trong các thiết lập ngữ cảnh dài. (OpenAI đã công bố biểu đồ và bảng MRCRv2.)

GPT-5.2

So sánh với các đối thủ cùng thời

  • so với Google Gemini 3 (Gemini 3 Pro / Deep Think): Gemini 3 Pro được công bố với cửa sổ ngữ cảnh ~1,048,576 (≈1M) token và đầu vào đa phương thức rộng (văn bản, hình ảnh, âm thanh, video, PDF) cùng tích hợp tác tử mạnh qua Vertex AI / AI Studio. Trên lý thuyết, cửa sổ ngữ cảnh lớn hơn của Gemini 3 là một điểm khác biệt cho các khối lượng công việc cực lớn trong một phiên duy nhất; các đánh đổi bao gồm bề mặt công cụ và mức độ phù hợp hệ sinh thái.
  • so với Anthropic Claude Opus 4.5: Opus 4.5 của Anthropic nhấn mạnh các quy trình lập trình/tác tử doanh nghiệp và báo cáo kết quả SWE-bench mạnh cùng độ ổn định cho các phiên tác tử dài; Anthropic định vị Opus cho tự động hóa và tạo mã với cửa sổ ngữ cảnh 200k cùng các tích hợp tác tử/Excel chuyên biệt. Opus 4.5 là một đối thủ mạnh trong tự động hóa doanh nghiệp và các tác vụ mã.

Kết luận thực tiễn: GPT-5.2 nhắm tới một tập hợp cải tiến cân bằng (ngữ cảnh 400k, đầu ra token cao, suy luận/lập trình được cải thiện). Gemini 3 nhắm tới các ngữ cảnh một phiên lớn nhất tuyệt đối (≈1M), trong khi Claude Opus tập trung vào kỹ thuật doanh nghiệp và độ bền vững của tác tử. Hãy lựa chọn bằng cách đối chiếu kích thước ngữ cảnh, nhu cầu đa phương thức, mức độ phù hợp về tính năng/công cụ, và các đánh đổi về chi phí/độ trễ.

Cách truy cập và sử dụng API GPT-5.2

Bước 1: Đăng ký API Key

Đăng nhập vào cometapi.com. Nếu bạn chưa là người dùng của chúng tôi, vui lòng đăng ký trước. Đăng nhập vào bảng điều khiển CometAPI của bạn. Lấy khóa API thông tin xác thực truy cập của giao diện. Nhấp vào “Add Token” tại mục API token trong trung tâm cá nhân, lấy khóa token: sk-xxxxx và gửi đi.

Bước 2: Gửi yêu cầu tới API GPT-5.2

Chọn endpoint “gpt-5.2” để gửi yêu cầu API và thiết lập phần thân yêu cầu. Phương thức yêu cầu và phần thân yêu cầu được lấy từ tài liệu API trên website của chúng tôi. Website của chúng tôi cũng cung cấp bài kiểm tra Apifox để thuận tiện cho bạn. Thay thế <YOUR_API_KEY> bằng khóa CometAPI thực tế từ tài khoản của bạn. Các nhà phát triển gọi chúng qua endpoint Responses API / Chat.

Chèn câu hỏi hoặc yêu cầu của bạn vào trường content — đây là nội dung mà mô hình sẽ phản hồi. Xử lý phản hồi API để lấy câu trả lời được tạo.

Bước 3: Truy xuất và xác minh kết quả

Xử lý phản hồi API để lấy câu trả lời được tạo. Sau khi xử lý, API phản hồi với trạng thái tác vụ và dữ liệu đầu ra.

Xem thêm Gemini 3 Pro Preview API

Câu hỏi thường gặp

What makes GPT-5.2 OpenAI's flagship model for developers?

GPT-5.2 là mô hình tốt nhất của OpenAI cho lập trình và các tác vụ tác nhân, kết hợp cửa sổ ngữ cảnh 400K với hỗ trợ trình thông dịch mã, tìm kiếm web, tìm kiếm tệp, tạo hình ảnh và MCP—khiến nó trở thành lựa chọn linh hoạt nhất cho các quy trình công việc phức tạp.

Does GPT-5.2 support model distillation?

Có, GPT-5.2 là mô hình duy nhất hỗ trợ chưng cất mô hình, cho phép nhà phát triển sử dụng đầu ra của nó để huấn luyện các mô hình nhỏ hơn, hiệu quả hơn cho các tác vụ cụ thể mà vẫn duy trì hiệu năng.

What is the knowledge cutoff date for GPT-5.2?

GPT-5.2 có mốc kiến thức đến ngày 31 tháng 8 năm 2025. Để có thông tin mới hơn, bạn có thể bật tìm kiếm web thông qua Responses API để các câu trả lời dựa trên dữ liệu hiện tại.

Can GPT-5.2 process images and generate code simultaneously?

Có, GPT-5.2 chấp nhận đầu vào hình ảnh và hỗ trợ trình thông dịch mã, cho phép phân tích nội dung trực quan và thực thi mã Python trong cùng một cuộc trò chuyện—lý tưởng cho các quy trình trực quan hóa và phân tích dữ liệu.

How does GPT-5.2 compare to GPT-5 in pricing and performance?

GPT-5.2 có giá $1.75/$14 cho mỗi triệu token (đầu vào/đầu ra) so với $1.25 của GPT-5, nhưng mang lại hiệu năng cao hơn đáng kể trên các thước đo chuyên nghiệp, bao gồm lập trình, hiểu ngữ cảnh dài và sử dụng công cụ.

What endpoints does GPT-5.2 support?

GPT-5.2 hỗ trợ Chat Completions, Responses API, xử lý theo lô và Assistants API—nhưng không hỗ trợ fine-tuning, Realtime API hoặc các phương thức âm thanh.

Tính năng cho GPT-5.2

Khám phá các tính năng chính của GPT-5.2, được thiết kế để nâng cao hiệu suất và khả năng sử dụng. Tìm hiểu cách các khả năng này có thể mang lại lợi ích cho dự án của bạn và cải thiện trải nghiệm người dùng.

Giá cả cho GPT-5.2

Khám phá mức giá cạnh tranh cho GPT-5.2, được thiết kế để phù hợp với nhiều ngân sách và nhu cầu sử dụng khác nhau. Các gói linh hoạt của chúng tôi đảm bảo bạn chỉ trả tiền cho những gì bạn sử dụng, giúp dễ dàng mở rộng quy mô khi yêu cầu của bạn tăng lên. Khám phá cách GPT-5.2 có thể nâng cao các dự án của bạn trong khi vẫn kiểm soát được chi phí.
Giá Comet (USD / M Tokens)Giá Chính Thức (USD / M Tokens)Giảm giá
Đầu vào:$1.4/M
Đầu ra:$11.2/M
Đầu vào:$1.75/M
Đầu ra:$14/M
-20%

Mã mẫu và API cho GPT-5.2

Truy cập mã mẫu toàn diện và tài nguyên API cho GPT-5.2 để tối ưu hóa quy trình tích hợp của bạn. Tài liệu chi tiết của chúng tôi cung cấp hướng dẫn từng bước, giúp bạn khai thác toàn bộ tiềm năng của GPT-5.2 trong các dự án của mình.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "none"},
)

print(response.output_text)

Thêm mô hình