Home/Models/OpenAI/GPT-5.2 Pro
O

GPT-5.2 Pro

อินพุต:$16.80/M
เอาต์พุต:$134.40/M
บริบท:400,000
เอาต์พุตสูงสุด:128,000
gpt-5.2-pro เป็นสมาชิกที่มุ่งเน้นการใช้งานระดับโปรดักชันและมีความสามารถสูงสุดในตระกูล GPT-5.2 ของ OpenAI เปิดให้ใช้งานผ่าน Responses API สำหรับงานที่ต้องการความแม่นยำสูงสุด การให้เหตุผลหลายขั้นตอน การใช้เครื่องมืออย่างกว้างขวาง และงบประมาณด้านบริบท/throughput ที่ใหญ่ที่สุดที่ OpenAI มีให้
ใหม่
ใช้งานเชิงพาณิชย์
Playground
ภาพรวม
คุณสมบัติ
ราคา
API

GPT-5.2-Pro คืออะไร

GPT-5.2-Pro คือระดับ “Pro” ของตระกูล GPT-5.2 ของ OpenAI ที่ออกแบบมาสำหรับปัญหาที่ท้าทายที่สุด — การให้เหตุผลหลายขั้นตอน โค้ดที่ซับซ้อน การสังเคราะห์เอกสารขนาดใหญ่ และงานความรู้ระดับมืออาชีพ เปิดให้ใช้งานผ่าน Responses API เพื่อรองรับการโต้ตอบหลายรอบและคุณสมบัติ API ขั้นสูง (เครื่องมือ โหมดการให้เหตุผล การบีบอัดบริบท ฯลฯ) รุ่น Pro แลกความเร็วและต้นทุนกับคุณภาพคำตอบสูงสุดและความปลอดภัย/ความสม่ำเสมอที่แข็งแกร่งยิ่งขึ้นในโดเมนที่ยาก

คุณสมบัติหลัก (สิ่งที่ gpt-5.2-pro นำสู่แอปพลิเคชัน)

  • การให้เหตุผลความเที่ยงตรงสูงสุด: Pro รองรับการตั้งค่าการให้เหตุผลระดับสูงสุดของ OpenAI (รวมถึง xhigh) เพื่อแลกความหน่วงและคอมพิวต์กับรอบการให้เหตุผลภายในที่ลึกขึ้นและการปรับแต่งแนวทางคำตอบแบบ chain-of-thought ให้ดีขึ้น
  • ความชำนาญกับบริบทขนาดใหญ่และเอกสารยาว: ออกแบบมาเพื่อรักษาความแม่นยำตลอดบริบทที่ยาวมาก (OpenAI ทดสอบเทียบเคียงได้ถึง 256k+ โทเค็นสำหรับรุ่นย่อยของตระกูล) ทำให้เหมาะสำหรับการทบทวนเอกสารทางกฎหมาย/เทคนิค ฐานความรู้ระดับองค์กร และสถานะเอเจนต์ที่ทำงานยาวนาน
  • การเรียกใช้เครื่องมือและเอเจนต์ที่แข็งแกร่งยิ่งขึ้น: ออกแบบมาให้เรียกใช้ชุดเครื่องมือได้อย่างน่าเชื่อถือ (รายการเครื่องมือที่อนุญาต ฮุคสำหรับตรวจสอบ และการผสานรวมเครื่องมือที่หลากหลายยิ่งขึ้น) และทำหน้าที่เป็น “mega-agent” ที่สามารถประสานเครื่องมือย่อยหลายตัวและเวิร์กโฟลว์หลายขั้นตอนได้
  • ความถูกต้องตามข้อเท็จจริงและมาตรการด้านความปลอดภัยที่ดีขึ้น: OpenAI รายงานการลดลงอย่างมีนัยสำคัญของการหลอนข้อมูลและการตอบที่ไม่พึงประสงค์บนตัวชี้วัดความปลอดภัยภายในสำหรับ GPT-5.2 เมื่อเทียบกับรุ่นก่อน โดยได้รับการสนับสนุนจากการอัปเดตใน system card และการฝึกอบรมด้านความปลอดภัยแบบเจาะจงเป้าหมาย

ความสามารถและสเปกทางเทคนิค (เหมาะสำหรับนักพัฒนา)

  • จุดเชื่อมต่อ API และความพร้อมใช้งาน: แนะนำให้รวมใช้งานผ่าน Responses API สำหรับเวิร์กโฟลว์ระดับ Pro; นักพัฒนาสามารถตั้งค่า reasoning.effort เป็น none|medium|high|xhigh เพื่อปรับทรัพยากรคอมพิวต์ภายในที่ทุ่มให้กับการให้เหตุผล รุ่น Pro เปิดให้ใช้ความเที่ยงตรงสูงสุด xhigh
  • ระดับความพยายามในการให้เหตุผล: none | medium | high | xhigh (Pro และ Thinking รองรับ xhigh สำหรับการรันที่ให้ความสำคัญกับคุณภาพ) พารามิเตอร์นี้ช่วยให้คุณแลกต้นทุน/ความหน่วงกับคุณภาพได้
  • การบีบอัดและการจัดการบริบท: ความสามารถการบีบอัดรูปแบบใหม่ช่วยให้ API จัดการสิ่งที่โมเดล “จดจำ” และลดการใช้โทเค็นโดยยังคงบริบทที่เกี่ยวข้องไว้ — มีประโยชน์สำหรับบทสนทนายาวและเวิร์กโฟลว์เอกสาร
  • เครื่องมือและเครื่องมือแบบกำหนดเอง: โมเดลสามารถเรียกใช้เครื่องมือแบบกำหนดเอง (ส่งข้อความดิบไปยังเครื่องมือขณะจำกัดผลลัพธ์ของโมเดล); รูปแบบการเรียกใช้เครื่องมือและเอเจนต์ที่แข็งแกร่งยิ่งขึ้นใน 5.2 ช่วยลดความจำเป็นต้องใช้พรอมต์ระบบที่ซับซ้อน

ประสิทธิภาพบนเกณฑ์มาตรฐาน

ด้านล่างคือตัวเลขสำคัญที่เกี่ยวข้องและทำซ้ำได้มากที่สุดสำหรับ GPT-5.2 Pro (ผลลัพธ์ที่ OpenAI ตรวจสอบ/ภายใน):

  • GDPval (เกณฑ์วัดงานระดับมืออาชีพ): GPT-5.2 Pro — 74.1% (ชนะ/เสมอ) บนชุดทดสอบ GDPval — เป็นการปรับปรุงอย่างชัดเจนเมื่อเทียบกับ GPT-5.1 เมตริกนี้ออกแบบมาเพื่อประมาณคุณค่าในงานเศรษฐกิจจริงหลากหลายอาชีพ
  • ARC-AGI-1 (การให้เหตุผลทั่วไป): GPT-5.2 Pro — 90.5% (Verified); Pro ถูกระบุว่าเป็นโมเดลแรกที่ผ่าน 90% บนเกณฑ์นี้
  • การเขียนโค้ดและวิศวกรรมซอฟต์แวร์ (SWE-Bench): มีพัฒนาการอย่างมากในด้านการให้เหตุผลเกี่ยวกับโค้ดหลายขั้นตอน เช่น SWE-Bench Pro public และ SWE-Lancer (IC Diamond) แสดงการปรับปรุงอย่างมีนัยสำคัญเหนือ GPT-5.1 — ตัวเลขตัวแทนของตระกูล: SWE-Bench Pro public ~55.6% (Thinking; ผลลัพธ์ของ Pro รายงานว่าสูงกว่าในการทดสอบภายใน)
  • ความถูกต้องในบริบทยาว (MRCRv2): ตระกูล GPT-5.2 แสดงคะแนนการดึงข้อมูลและค้นหา “needle” สูงในช่วง 4k–256k (ตัวอย่าง: MRCRv2 8 needles ที่ 16k–32k: 95.3% สำหรับ GPT-5.2 Thinking; Pro รักษาความแม่นยำสูงที่หน้าต่างขนาดใหญ่กว่า) สิ่งเหล่านี้แสดงถึงความทนทานของตระกูลต่อภารกิจบริบทยาว ซึ่งเป็นจุดขายของ Pro

การเปรียบเทียบ gpt-5.2-pro กับรุ่นร่วมตระกูลและคู่แข่ง

  • เทียบกับ GPT-5.2 Thinking / Instant:: gpt-5.2-pro ให้ความสำคัญกับความเที่ยงตรงและการให้เหตุผลสูงสุด (xhigh) มากกว่าความหน่วง/ต้นทุน gpt-5.2 (Thinking) อยู่ตรงกลางสำหรับงานเชิงลึก และ gpt-5.2-chat-latest (Instant) ถูกปรับจูนเพื่อแชทความหน่วงต่ำ เลือก Pro สำหรับงานมูลค่าสูงที่ใช้คอมพิวต์หนัก
  • เทียบกับ Google Gemini 3 และโมเดลแนวหน้าอื่น ๆ: GPT-5.2 (ตระกูล) เป็นการตอบสนองเชิงแข่งขันของ OpenAI ต่อ Gemini 3 ตารางจัดอันดับแสดงผู้ชนะที่ขึ้นกับงาน — บนเกณฑ์วิทยาศาสตร์ระดับบัณฑิตศึกษาและวิชาชีพบางรายการ GPT-5.2 Pro และ Gemini 3 ใกล้เคียงกัน; ในโดเมนการเขียนโค้ดแคบหรือเฉพาะทาง ผลลัพธ์อาจแตกต่างกัน
  • เทียบกับ GPT-5.1 / GPT-5: Pro แสดงการปรับปรุงอย่างมีนัยสำคัญใน GDPval, ARC-AGI, เกณฑ์การเขียนโค้ด และเมตริกบริบทยาวเมื่อเทียบกับ GPT-5.1 และเพิ่มการควบคุม API ใหม่ (การให้เหตุผล xhigh, การบีบอัด) OpenAI จะคงรุ่นก่อนหน้าไว้ระหว่างช่วงเปลี่ยนผ่าน

กรณีใช้งานจริงและรูปแบบที่แนะนำ

กรณีใช้งานมูลค่าสูงที่เหมาะกับ Pro

  • การสร้างแบบจำลองทางการเงินที่ซับซ้อน การสังเคราะห์และวิเคราะห์สเปรดชีตขนาดใหญ่ซึ่งความแม่นยำและการให้เหตุผลหลายขั้นตอนมีความสำคัญ (OpenAI รายงานคะแนนงานสเปรดชีตด้านวาณิชธนกิจที่ดีขึ้น)
  • การสังเคราะห์เอกสารทางกฎหมายหรือวิทยาศาสตร์แบบเอกสารยาว ที่บริบท 400k โทเค็นสามารถคงรายงาน ฉบับผนวก และห่วงโซ่การอ้างอิงไว้ทั้งชุด
  • การสร้างโค้ดคุณภาพสูงและการรีแฟกเตอร์หลายไฟล์สำหรับฐานโค้ดระดับองค์กร (การให้เหตุผลระดับ xhigh ของ Pro ช่วยในการแปลงโปรแกรมหลายขั้นตอน)
  • การวางแผนเชิงกลยุทธ์ การประสานโครงการหลายระยะ และเวิร์กโฟลว์แบบเอเจนต์ที่ใช้เครื่องมือแบบกำหนดเองและต้องการการเรียกใช้เครื่องมือที่แข็งแรง

เมื่อควรเลือก Thinking หรือ Instant แทน

  • เลือก Instant สำหรับงานสนทนาที่รวดเร็ว ต้นทุนต่ำ และการผสานกับเครื่องมือแก้ไข
  • เลือก Thinking สำหรับงานเชิงลึกที่ไวต่อความหน่วง ที่ต้องควบคุมต้นทุนแต่ยังต้องการคุณภาพ

วิธีเข้าถึงและใช้งาน GPT-5.2 pro API

ขั้นตอนที่ 1: สมัครรับ API Key

เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่เป็นผู้ใช้ โปรดลงทะเบียนก่อน เข้าสู่ CometAPI console ของคุณ รับคีย์ API สำหรับการเข้าถึงอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับ token key: sk-xxxxx แล้วส่ง

ขั้นตอนที่ 2: ส่งคำขอไปยัง GPT-5.2 pro API

เลือกปลายทาง “gpt-5.2-pro” เพื่อส่งคำขอ API และตั้งค่า request body วิธีการและเนื้อคำขอสามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณด้วย แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ ควรเรียกใช้ที่ไหน: API แบบ Responses

แทรกคำถามหรือคำขอของคุณลงในฟิลด์ content—นี่คือสิ่งที่โมเดลจะตอบกลับ . ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น

ขั้นตอนที่ 3: ดึงผลลัพธ์และตรวจสอบความถูกต้อง

ประมวลผลการตอบกลับ API เพื่อรับคำตอบที่สร้างขึ้น หลังการประมวลผล API จะตอบกลับด้วยสถานะงานและข้อมูลผลลัพธ์

ดูเพิ่มเติม Gemini 3 Pro Preview API

คำถามที่พบบ่อย

Why does GPT-5.2 Pro only work with the Responses API?

GPT-5.2 Pro is exclusively available through the Responses API to enable multi-turn model interactions before responding to API requests, supporting advanced workflows like tool chaining and extended reasoning sessions that require persistent state management.

What reasoning effort levels does GPT-5.2 Pro support?

GPT-5.2 Pro supports three reasoning effort levels: medium, high, and xhigh—allowing developers to balance response quality against latency for complex problem-solving tasks.

How does GPT-5.2 Pro handle long-running requests?

Some GPT-5.2 Pro requests may take several minutes to complete due to the model's deep reasoning process. OpenAI recommends using background mode to avoid timeouts on particularly challenging tasks.

What tools can GPT-5.2 Pro access through the Responses API?

GPT-5.2 Pro supports web search, file search, image generation, and MCP (Model Context Protocol), but notably does not support code interpreter or computer use tools.

When should I choose GPT-5.2 Pro over standard GPT-5.2?

Choose GPT-5.2 Pro when your workload demands maximum fidelity, multi-step reasoning, or extensive tool orchestration—it's designed for production scenarios with the largest context and throughput budgets OpenAI offers.

Does GPT-5.2 Pro support structured outputs?

No, GPT-5.2 Pro does not currently support structured outputs or fine-tuning, making it best suited for high-fidelity generation tasks rather than constrained format requirements.

คุณสมบัติสำหรับ GPT-5.2 Pro

สำรวจคุณสมบัติหลักของ GPT-5.2 Pro ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความสะดวกในการใช้งาน ค้นพบว่าความสามารถเหล่านี้สามารถเป็นประโยชน์ต่อโครงการของคุณและปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร

ราคาสำหรับ GPT-5.2 Pro

สำรวจราคาที่แข่งขันได้สำหรับ GPT-5.2 Pro ที่ออกแบบมาให้เหมาะสมกับงบประมาณและความต้องการการใช้งานที่หลากหลาย แผนการบริการที่ยืดหยุ่นของเรารับประกันว่าคุณจะจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น ทำให้สามารถขยายขนาดได้ง่ายเมื่อความต้องการของคุณเพิ่มขึ้น ค้นพบว่า GPT-5.2 Pro สามารถยกระดับโปรเจกต์ของคุณได้อย่างไรในขณะที่ควบคุมต้นทุนให้อยู่ในระดับที่จัดการได้
ราคา Comet (USD / M Tokens)ราคาทางการ (USD / M Tokens)
อินพุต:$16.80/M
เอาต์พุต:$134.40/M
อินพุต:$21.00/M
เอาต์พุต:$168.00/M

โค้ดตัวอย่างและ API สำหรับ GPT-5.2 Pro

GPT-5.2-Pro เป็นรุ่นคุณภาพสูงสุดของ OpenAI ในตระกูล GPT-5.2 ที่ออกแบบมาสำหรับงานด้านความรู้และงานเชิงเทคนิคที่ยากที่สุดและมีมูลค่าสูงสุด.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

response = client.responses.create(
    model="gpt-5.2-pro",
    input="How much gold would it take to coat the Statue of Liberty in a 1mm layer?",
    reasoning={"effort": "high"},
)

print(response.output_text)

โมเดลเพิ่มเติม