GPT-5.2 เป็นก้าวสำคัญในวิวัฒนาการของโมเดลภาษาขนาดใหญ่: การให้เหตุผลที่สูงขึ้น หน้าต่างบริบทที่ใหญ่ขึ้น ความสามารถด้านโค้ดและการใช้เครื่องมือที่แข็งแกร่งขึ้น และรุ่นที่ปรับแต่งเพื่อสมดุลความหน่วง/คุณภาพที่ต่างกัน ด้านล่างนี้ฉันได้ผสานบันทึกเผยแพร่ล่าสุด รายงาน และเครื่องมือจากบุคคลที่สาม (CometAPI) เพื่อมอบคู่มือเชิงปฏิบัติพร้อมใช้งานจริงสำหรับการเข้าถึง GPT-5.2
GPT-5.2 กำลังทยอยเปิดให้ใช้ และผู้ใช้จำนวนมากยังไม่สามารถใช้งานได้ CometAPI ได้ผสาน GPT-5.2 แบบเต็มรูปแบบแล้ว ช่วยให้คุณใช้งานฟังก์ชันทั้งหมดได้ทันทีในราคาเพียง 30% ของราคาทางการ โดยไม่ต้องรอและไม่มีข้อจำกัด คุณยังสามารถใช้ Gemini 3 Pro, Claude Opus 4.5, Nano Banana Pro และโมเดล AI ชั้นนำกว่า 100 รายการภายใน GlobalGPT
GPT-5.2 คืออะไร?
GPT-5.2 เป็นสมาชิกล่าสุดของตระกูล GPT-5 ของ OpenAI มุ่งเน้นประสิทธิภาพ “งานเชิงความรู้” ที่ดีขึ้น (สเปรดชีต การให้เหตุผลหลายขั้น การสร้างโค้ด และการใช้เครื่องมือเชิงเอเจนต์) ความแม่นยำสูงขึ้นบนชุดวัดมาตรฐานระดับมืออาชีพ และหน้าต่างบริบทที่ใหญ่และใช้งานได้จริงอย่างมีนัยสำคัญ OpenAI อธิบาย GPT-5.2 ว่าเป็นตระกูล (Instant, Thinking, Pro) และวางตำแหน่งให้เป็นการอัปเกรดสำคัญเหนือ GPT-5.1 ในด้านอัตราการส่งผ่านงาน ความสามารถด้านโค้ด และการจัดการบริบทยาว รายงานอิสระชี้ให้เห็นถึงการเพิ่มผลิตภาพในงานระดับมืออาชีพ และการส่งมอบที่เร็วและถูกกว่ากระบวนงานของมนุษย์สำหรับงานความรู้หลายประเภท
ในทางปฏิบัติหมายความว่าอย่างไร?
- การให้เหตุผลหลายขั้นและการจัดการการเรียกใช้เครื่องมือที่ดีกว่า: GPT-5.2 รองรับสายการคิดที่ยาวขึ้นและการเรียกใช้เครื่องมือภายนอกได้เสถียรมากขึ้น
- บริบทที่ใหญ่ขึ้นและใช้งานได้จริง: โมเดลในตระกูลรองรับหน้าต่างบริบทที่ยาวมาก (หน้าต่างที่มีประสิทธิผล 400K) ช่วยให้ประมวลผลเอกสารทั้งชุด ล็อก หรือบริบทหลายไฟล์ได้ในคำขอเดียว
- มัลติโมดาลิตี: การผสานภาพและข้อความที่แข็งแกร่งขึ้นสำหรับงานที่ต้องใช้ทั้งภาพและข้อความ
- ตัวเลือกรุ่นสำหรับสมดุลความหน่วงกับคุณภาพ: Instant สำหรับความหน่วงต่ำ Thinking สำหรับสมดุลอัตราการส่งผ่านงาน/คุณภาพ และ Pro สำหรับความแม่นยำและการควบคุมสูงสุด (เช่น การตั้งค่าการอนุมานขั้นสูง)

มีรุ่นย่อยของ GPT-5.2 อะไรบ้าง และควรใช้เมื่อใด?
GPT-5.2 มีให้เป็นชุดของรุ่นย่อย เพื่อให้คุณเลือกสมดุลที่เหมาะสมระหว่างความเร็ว ความแม่นยำ และต้นทุน
รุ่นหลักสามแบบ
- Instant (
gpt-5.2-chat-latest/ Instant): ความหน่วงต่ำสุด ปรับให้เหมาะกับการโต้ตอบสั้นถึงปานกลางที่ความเร็วสำคัญ (เช่น ส่วนหน้าของแชต การสนับสนุนลูกค้าแบบรวดเร็ว) ใช้สำหรับกรณีที่ต้องการอัตราการส่งผ่านงานสูงและยอมรับการให้เหตุผลที่ตื้นลงได้เล็กน้อย - Thinking (
gpt-5.2/ Thinking): ค่าเริ่มต้นสำหรับงานที่ซับซ้อนกว่า — สายการให้เหตุผลยาว การสังเคราะห์โปรแกรม การสร้างสเปรดชีต การสรุปเอกสาร และการจัดการเครื่องมือ ให้สมดุลที่ดีระหว่างคุณภาพและต้นทุน - Pro (
gpt-5.2-pro/ Pro): ใช้คอมพิวต์สูงสุด ความแม่นยำดีที่สุด เหมาะกับงานระดับวิกฤต โค้ดเชิงผลิต หรือการให้เหตุผลเฉพาะทางที่ต้องการความสม่ำเสมอมากขึ้น คาดว่าต้นทุนต่อโทเคนจะสูงขึ้นอย่างมาก
การเลือกรุ่น (แนวทางคร่าวๆ)
- หากแอปต้องการ การตอบกลับเร็ว แต่ยอมรับ ความคลาดเคลื่อนเล็กน้อยเป็นครั้งคราว: เลือก Instant
- หากแอปต้องการ เอาต์พุตหลายขั้นที่เชื่อถือได้ โค้ดที่มีโครงสร้าง หรือตรรกะสเปรดชีต: เริ่มจาก Thinking
- หากแอป สำคัญต่อความปลอดภัย/ความแม่นยำ (กฎหมาย การสร้างแบบจำลองทางการเงิน โค้ดเชิงผลิต) หรือคุณต้องการคุณภาพสูงสุด: ประเมิน Pro และชั่งน้ำหนักต้นทุน/ประโยชน์
CometAPI เปิดรุ่นย่อยเดียวกันแต่ห่อไว้ในอินเทอร์เฟซแบบรวม สามารถทำให้การพัฒนาแบบไม่ยึดติดผู้ให้บริการง่ายขึ้น หรือเชื่อมทีมที่ต้องการ API เดียวสำหรับผู้ให้บริการโมเดลหลายราย ฉันแนะนำให้เริ่มด้วย Thinking สำหรับการพัฒนาทั่วไป และประเมิน Instant สำหรับโฟลว์ผู้ใช้แบบสด และ Pro เมื่อคุณต้องการความแม่นยำช่วงสุดท้ายและสามารถคุ้มต้นทุนได้
จะเข้าถึง GPT-5.2 API (CometAPI) ได้อย่างไร?
คุณมีสองทางเลือกหลัก:
- ผ่าน OpenAI’s API โดยตรง — ช่องทางทางการ; ใช้รหัสโมเดล เช่น
gpt-5.2/gpt-5.2-chat-latest/gpt-5.2-proผ่านเอนด์พอยต์ของแพลตฟอร์ม OpenAI มีเอกสารและราคาบนเว็บไซต์แพลตฟอร์มของ OpenAI - ผ่าน CometAPI (หรือผู้รวมระบบรายอื่น) — CometAPI เปิดผิว REST ที่เข้ากันได้กับ OpenAI และรวมผู้ให้บริการจำนวนมาก เพื่อให้คุณสลับผู้ให้บริการหรือโมเดลได้โดยเปลี่ยนสตริงชื่อโมเดลแทนการเขียนเลเยอร์เน็ตเวิร์กใหม่ มี base URL เดียวและเฮดเดอร์
Authorization: Bearer <KEY>; เอนด์พอยต์ตามเส้นทางสไตล์ OpenAI เช่น/v1/chat/completionsหรือ/v1/responses
ทีละขั้น: เริ่มต้นกับ CometAPI
- สมัคร ที่ CometAPI และสร้างคีย์ API จากแดชบอร์ด (หน้าตาจะเป็น
sk-xxxx) เก็บคีย์อย่างปลอดภัย — เช่น ในตัวแปรสภาพแวดล้อม - เลือกเอ็นด์พอยต์ — CometAPI ใช้เอนด์พอยต์ที่เข้ากันได้กับ OpenAI ตัวอย่าง:
POSThttps://api.cometapi.com/v1/chat/completions - เลือกชื่อโมเดล — เช่น
"model": "gpt-5.2"หรือ"gpt-5.2-chat-latest"; ตรวจสอบรายการโมเดลของ CometAPI เพื่อยืนยันชื่อที่ถูกต้อง - ทดสอบด้วยคำขอขั้นต่ำ (ดูตัวอย่างด้านล่าง) ติดตามความหน่วง การใช้โทเคน และการตอบกลับในคอนโซลของ CometAPI
ตัวอย่าง: curl แบบเร็ว (CometAPI, เข้ากันได้กับ OpenAI)
curl -s -X POST "https://api.cometapi.com/v1/chat/completions" \ -H "Authorization: Bearer $COMETAPI_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-5.2", "messages": [ {"role":"system","content":"You are a concise assistant that answers as an expert data analyst."}, {"role":"user","content":"Summarize the differences between linear and logistics regression in bullet points."} ], "max_tokens": 300, "temperature": 0.0 }'
ตัวอย่างนี้ใช้รูปแบบคำขอที่เข้ากันได้กับ OpenAI ของ CometAPI; CometAPI ทำให้การเข้าถึงโมเดลต่างๆ เป็นมาตรฐาน; ขั้นตอนทั่วไปคือ: สมัครที่ CometAPI รับคีย์ API และเรียกเอ็นด์พอยต์แบบรวมของพวกเขาพร้อมชื่อโมเดล (เช่น
gpt-5.2,gpt-5.2-chat-latestหรือgpt-5.2-pro) การรับรองตัวตนทำผ่านเฮดเดอร์Authorization: Bearer <KEY>
วิธีใช้ GPT-5.2 API ให้ได้ผลดีที่สุด
GPT-5.2 รองรับพารามิเตอร์มาตรฐานของโมเดลกำเนิด พร้อมทางเลือกการออกแบบเพิ่มเติมเกี่ยวกับบริบทยาวและการเรียกใช้เครื่องมือ
พารามิเตอร์ใหม่ของ GPT-5.2
GPT-5.2 เพิ่มระดับความพยายามในการให้เหตุผล xhigh นอกเหนือจากระดับที่มีอยู่ (เช่น low, medium, high) ใช้ xhigh สำหรับงานที่ต้องการการให้เหตุผลแบบลึกเป็นขั้น หรือเมื่อคุณขอให้โมเดลทำการวางแผนคล้าย chain-of-thought (gpt-5.2, gpt-5.2-pro) เพื่อนำไปใช้แบบโปรแกรม โปรดจำว่า ความพยายามในการให้เหตุผลที่สูงขึ้นมักเพิ่มต้นทุนและความหน่วง ใช้อย่างเลือกสรร
GPT-5.2 รองรับหน้าต่างบริบทที่ใหญ่มาก: วางแผนแบ่งเป็นส่วน (chunk) หรือสตรีมอินพุต และใช้ compaction (เทคนิคการจัดการบริบทใหม่ที่นำมาใน 5.2) เพื่อบีบอัดรอบก่อนหน้าให้เป็นสรุปหนาแน่นที่คงสถานะข้อเท็จจริงไว้พร้อมประหยัดโทเคน สำหรับเอกสารยาว (ไวท์เปเปอร์ โค้ดเบส สัญญากฎหมาย) คุณควร:
- เตรียมและฝังเอกสารเป็นชิ้นส่วนเชิงความหมาย
- ใช้การดึงข้อมูล (RAG) เพื่อเรียกเฉพาะชิ้นส่วนที่เกี่ยวข้องในแต่ละพรอมต์
- ใช้ API/พารามิเตอร์ compaction ของแพลตฟอร์มเพื่อรักษาสถานะสำคัญไว้ขณะลดจำนวนโทเคน
พารามิเตอร์อื่นและการตั้งค่าจริง
- model — ชื่อรุ่น (เช่น
"gpt-5.2","gpt-5.2-chat-latest","gpt-5.2-pro") เลือกตามสมดุลความหน่วง/ความแม่นยำ - temperature (0.0–1.0+) — ความสุ่ม สำหรับเอาต์พุตที่ทำซ้ำได้และแม่นยำ (โค้ด ภาษาเชิงกฎหมาย แบบจำลองการเงิน) ใช้
0.0–0.2สำหรับงานสร้างสรรค์0.7–1.0ค่าเริ่มต้น:0.0–0.7ตามกรณีใช้งาน - max_tokens / max_output_tokens — กำหนดเพดานขนาดการตอบกลับที่สร้างขึ้น ด้วยหน้าต่างบริบทใหญ่ คุณสามารถสร้างเอาต์พุตที่ยาวกว่ามาก อย่างไรก็ตาม แบ่งงานที่ยาวมากเป็นสตรีมหรือเวิร์กโฟลว์แบบแบ่งส่วน
- top_p — nucleus sampling; ใช้ร่วมกับ temperature มีประโยชน์สำหรับงานให้เหตุผลเชิงกำหนด ไม่จำเป็นสำหรับส่วนใหญ่
- presence_penalty / frequency_penalty — ควบคุมการซ้ำสำหรับข้อความเชิงสร้างสรรค์
- stop — ลำดับโทเคนหนึ่งหรือหลายชุดที่โมเดลควรหยุดการสร้าง มีประโยชน์เมื่อสร้างเอาต์พุตแบบมีขอบเขต (JSON, โค้ด, CSV)
- streaming — เปิดการสตรีมเพื่อ UX ความหน่วงต่ำเมื่อสร้างเอาต์พุตยาว (แชต เอกสารใหญ่) การสตรีมสำคัญต่อประสบการณ์ผู้ใช้เมื่อการตอบกลับเต็มอาจใช้เวลาหลายวินาทีหรือมากกว่า
- system / assistant / user messages (API แบบแชต) — ใช้พรอมต์ระบบที่ชัดเจนและเข้มแข็งเพื่อกำหนดพฤติกรรม สำหรับ GPT-5.2 พรอมต์ระบบยังคงเป็นคันโยกที่ทรงพลังที่สุดเพื่อกำหนดพฤติกรรมให้สม่ำเสมอ
ข้อพิจารณาพิเศษสำหรับบริบทยาวและการใช้เครื่องมือ
- การแบ่งและการดึงข้อมูล: แม้ GPT-5.2 จะรองรับหน้าต่างยาวมาก แต่โดยมากจะแข็งแรงกว่าหากผสม RAG กับพรอมต์แบบแบ่งส่วนสำหรับข้อมูลอัปเดตและการจัดการหน่วยความจำ ใช้บริบทยาวสำหรับงานมีสถานะต่อเนื่องที่จำเป็นจริง (เช่น การวิเคราะห์ทั้งเอกสาร)
- การเรียกเครื่องมือ/เอเจนต์: GPT-5.2 ปรับปรุงการเรียกใช้เครื่องมือเชิงเอเจนต์ หากคุณผสานเครื่องมือ (ค้นหา ประเมิน เครื่องคำนวณ สภาพแวดล้อมการรัน) ให้กำหนดสคีมาฟังก์ชันที่ชัดเจนและจัดการข้อผิดพลาดอย่างรัดกุม มองเครื่องมือเป็นออราเคิลภายนอกและตรวจสอบความถูกต้องของผลลัพธ์เสมอ
- เอาต์พุตเชิงกำหนด (JSON / โค้ด): ใช้
temperature: 0และstoptokens ที่เข้มแข็งหรือสคีมาฟังก์ชัน ตรวจสอบ JSON ที่สร้างด้วยตัวตรวจสอบสคีมา
ตัวอย่าง: ระบบ + ผู้ช่วย + ผู้ใช้ แบบไมโครพรอมต์ที่ปลอดภัยสำหรับการสร้างโค้ด
[ {"role":"system","content":"You are a precise, conservative code generator that writes production-ready Python. Use minimal commentary and always include tests."}, {"role":"user","content":"Write a Python function `summarize_errors(log_path)` that parses a CSV and returns aggregated error counts by type. Include a pytest test."}]
แนวทางแบบบทบาท+คำสั่งที่ชัดเจนช่วยลดการมโนและช่วยให้ได้เอาต์พุตที่ทดสอบได้
แนวปฏิบัติที่ดีที่สุดสำหรับการออกแบบพรอมต์กับ GPT-5.2 คืออะไร?
GPT-5.2 ได้ประโยชน์จากพื้นฐานวิศวกรรมพรอมต์แบบเดียวกัน โดยมีการปรับเล็กน้อยตามความสามารถในการให้เหตุผลที่แข็งแรงและบริบทยาว
พรอมต์ที่ได้ผลดี
- ชัดเจนและมีโครงสร้าง ใช้ขั้นตอนแบบลำดับหมายเลข ขอรูปแบบเอาต์พุตอย่างชัดเจน และมีตัวอย่าง
- ให้ความสำคัญกับเอาต์พุตที่มีโครงสร้าง (JSON หรือบล็อกที่กำหนดชัดเจน) เมื่อจะพาร์สผลแบบโปรแกรม ใส่ตัวอย่างสคีมาในพรอมต์
- แบ่งบริบทขนาดใหญ่ หากคุณส่งไฟล์จำนวนมาก สรุปแบบก้าวหน้า หรือใช้ความสามารถบริบทยาวของโมเดลโดยตรง (ระวังต้นทุน) GPT-5.2 รองรับบริบทที่ยาวมาก แต่ต้นทุนและความหน่วงขยายตามขนาดอินพุต
- ใช้ RAG สำหรับข้อมูลที่อัปเดตหรือเป็นกรรมสิทธิ์: ดึงเอกสาร ส่งเฉพาะส่วนที่เกี่ยวข้อง และขอให้โมเดลยึดคำตอบกับส่วนเหล่านั้น (รวมคำสั่งสไตล์
"source": trueหรือกำหนดให้มีการอ้างอิงในเอาต์พุต) - ลดความเสี่ยงการมโน โดยสั่งให้โมเดลตอบว่า “ไม่ทราบ” เมื่อไม่มีข้อมูล และให้ส่วนหลักฐานสำหรับอ้างอิง ใช้ temperature ต่ำและพรอมต์ระบบที่เน้นการให้เหตุผลสำหรับงานเชิงข้อเท็จจริง
- ทดสอบกับข้อมูลตัวแทน และตั้งการตรวจอัตโนมัติ (unit tests) สำหรับเอาต์พุตที่มีโครงสร้าง เมื่อความแม่นยำสำคัญ ให้สร้างขั้นตอนตรวจโดยมนุษย์แบบอัตโนมัติในกระบวนการ
ตัวอย่างพรอมต์ (สรุปเอกสาร + รายการงาน)
You are an executive assistant. Summarize the document below in 6–8 bullets (each ≤ 30 words), then list 5 action items with owners and deadlines. Use the format:SUMMARY:1. ...ACTION ITEMS:1. Owner — Deadline — TaskDocument:<paste or reference relevant excerpt>
GPT-5.2 มีค่าใช้จ่ายเท่าไหร่ (API pricing)
ราคาของ GPT-5.2 อิงตามการใช้โทเคน (อินพุตและเอาต์พุต) และรุ่นที่คุณเลือก อัตราที่เผยแพร่ (ธันวาคม 2025) สูงกว่าของ GPT-5.1 สะท้อนความสามารถที่เพิ่มขึ้นของโมเดล
การตั้งราคาแบบสาธารณะปัจจุบัน (รายการทางการของ OpenAI)
OpenAI แสดงราคาโดยประมาณต่อ 1 ล้านโทเคน (อินพุตและเอาต์พุต) ตัวเลขที่รายงานรวม:
- gpt-5.2 (Thinking / chat latest):
1.75 ต่อ 1M โทเคนอินพุต**, **14.00 ต่อ 1M โทเคนเอาต์พุต (หมายเหตุ: อาจมีส่วนลดสำหรับอินพุตที่แคชไว้) gpt-5.2(มาตรฐาน): อินพุต ≈1.75 / 1M โทเคน; เอาต์พุต ≈14.00 / 1M โทเคนgpt-5.2-proมีพรีเมียมสูงกว่าอย่างมาก (เช่น21.00–168.00/M เอาต์พุตสำหรับชั้น priority/pro)
CometAPI เสนอราคาที่ประหยัดกว่า โดย GPT-5.2 อยู่ที่ 20% ของราคาทางการ และมีส่วนลดตามฤดูกาลเป็นครั้งคราว CometAPI มีแคตตาล็อกรวมของโมเดล (รวมถึง gpt-5.2 ของ OpenAI) และเปิดผ่าน API ของตนเอง ช่วยประหยัดต้นทุนและย้อนกลับโมเดลได้ง่าย
วิธีควบคุมต้นทุน
- ใช้บริบทกระชับ — ส่งเฉพาะส่วนที่จำเป็น สรุปเอกสารยาวฝั่งคุณก่อนส่ง
- ใช้อินพุตที่แคช — สำหรับพรอมต์ที่ซ้ำกันด้วยคำสั่งเดิม ระดับราคาอินพุตที่แคชอาจถูกกว่า (OpenAI รองรับราคาสำหรับอินพุตที่แคชสำหรับพรอมต์ซ้ำ)
- สร้างตัวเลือกหลายชุดฝั่งเซิร์ฟเวอร์ (n>1) เฉพาะเมื่อมีประโยชน์ การสร้างหลายตัวเลือกจะคูณต้นทุนโทเคนเอาต์พุต
- ใช้โมเดลขนาดเล็กสำหรับงานประจำ (gpt-5-mini, gpt-5-nano) และสำรอง GPT-5.2 สำหรับงานมูลค่าสูง
- แบตช์คำขอ และใช้เอนด์พอยต์แบบแบตช์เมื่อผู้ให้บริการรองรับ เพื่อลดค่าโสหุ้ย
- วัดการใช้โทเคนใน CI — ติดตั้งระบบบัญชีโทเคนและจำลองต้นทุนกับทราฟฟิกที่คาดการณ์ก่อนเข้าสู่การผลิต
คำถามเชิงปฏิบัติที่พบบ่อย
GPT-5.2 รองรับเอกสารขนาดใหญ่มากในครั้งเดียวได้ไหม?
ได้ — ตระกูลนี้ออกแบบมาสำหรับหน้าต่างบริบทที่ยาวมาก (หลักแสนถึง 400K โทเคนตามคำอธิบายผลิตภัณฑ์บางรายการ) อย่างไรก็ตาม บริบทใหญ่เพิ่มต้นทุนและความหน่วงส่วนปลาย; วิธีแบบไฮบริดแบ่ง+สรุปมักคุ้มค่ากว่า
ควรทำการปรับจูน (fine-tune) GPT-5.2 หรือไม่?
OpenAI เปิดการปรับจูนและเครื่องมือปรับแต่งผู้ช่วยในตระกูล GPT-5 สำหรับปัญหาเวิร์กโฟลว์จำนวนมาก วิศวกรรมพรอมต์และพรอมต์ระบบก็เพียงพอ ใช้การปรับจูนเมื่อคุณต้องการสไตล์โดเมนที่สม่ำเสมอและเอาต์พุตเชิงกำหนดที่พรอมต์ไม่สามารถให้ได้อย่างเชื่อถือ การปรับจูนมีค่าใช้จ่ายและต้องมีการกำกับดูแล
แล้วการมโนและความเป็นข้อเท็จจริงล่ะ?
ใช้ temperature ต่ำ รวมส่วนข้อมูลยึดโยง และกำหนดให้โมเดลอ้างอิงแหล่งที่มาหรือบอกว่า “ไม่ทราบ” เมื่อไม่มีข้อมูลรองรับ ใช้การตรวจโดยมนุษย์สำหรับเอาต์พุตที่มีผลกระทบสูง
บทสรุป
GPT-5.2 เป็นแพลตฟอร์มที่ช่วยเพิ่มศักยภาพ: ใช้ในจุดที่สร้างความได้เปรียบ (อัตโนมัติ สรุป โครงสร้างโค้ด) แต่อย่าให้โมเดลตัดสินแทนทั้งหมด ความสามารถด้านการให้เหตุผลและการใช้เครื่องมือที่ดีขึ้นทำให้อัตโนมัติของเวิร์กโฟลว์ซับซ้อนเป็นไปได้มากขึ้นกว่าเดิม — แต่ต้นทุน ความปลอดภัย และการกำกับดูแลยังคงเป็นปัจจัยจำกัด
เริ่มต้นโดยสำรวจความสามารถของโมเดล GPT-5.2 (GPT-5.2;GPT-5.2 pro, GPT-5.2 chat) ใน Playground และดู คู่มือ API สำหรับคำแนะนำโดยละเอียด ก่อนเข้าถึง โปรดตรวจสอบว่าคุณได้เข้าสู่ระบบ CometAPI และได้รับคีย์ API แล้ว CometAPI เสนอราคาต่ำกว่าราคาทางการอย่างมากเพื่อช่วยให้คุณผสานรวมได้ง่ายขึ้น
พร้อมเริ่มหรือยัง?→ ทดลองใช้โมเดล GPT-5.2 ฟรี !


