O

O3 Pro

อินพุต:$16/M
เอาต์พุต:$64/M
บริบท:200K
เอาต์พุตสูงสุด:100K
OpenAI o3‑pro เป็นรุ่น “pro” ของโมเดลการให้เหตุผล o3 ที่ถูกออกแบบให้ใช้เวลาคิดได้นานขึ้นและมอบคำตอบที่เชื่อถือได้มากที่สุด โดยอาศัยการเรียนรู้แบบเสริมกำลังด้วยห่วงโซ่การคิดแบบส่วนตัว และสร้างเกณฑ์มาตรฐานล้ำสมัยชุดใหม่ครอบคลุมหลายสาขา เช่น วิทยาศาสตร์ การเขียนโปรแกรม และธุรกิจ — พร้อมผสานเครื่องมือต่าง ๆ แบบอัตโนมัติ เช่น การค้นหาบนเว็บ การวิเคราะห์ไฟล์ การรัน Python และการให้เหตุผลเชิงภาพ ภายใน API
ใหม่
ใช้งานเชิงพาณิชย์

ข้อมูลพื้นฐานและคุณสมบัติ

  • ประเภทโมเดล: o3-Pro เป็นส่วนหนึ่งของ “โมเดลการให้เหตุผล” ของ OpenAI ซึ่งออกแบบมาให้ คิดทีละขั้นตอน แทนการสร้างคำตอบทันที
  • การให้บริการ: สามารถเข้าถึงได้ผ่านอินเทอร์เฟซ ChatGPT Pro/Team และ OpenAI developer API ตั้งแต่วันที่ 10 มิถุนายน 2025
  • ระดับการเข้าถึง: เข้ามาแทนที่ o1-Pro รุ่นก่อนหน้า; ผู้ใช้ Enterprise และ Edu จะทยอยใช้งานได้ในสัปดาห์ถัดจากการเปิดตัว

รายละเอียดทางเทคนิค

  • สถาปัตยกรรม: พัฒนาบนแกนหลักของ o3 พร้อมด้วย private chain of thought ที่ได้รับการปรับปรุง ช่วยให้สามารถให้เหตุผลหลายขั้นตอนระหว่างการอนุมาน
  • การแปลงเป็นโทเค็น: รองรับรูปแบบโทเค็นเดียวกันกับรุ่นก่อนหน้า—โทเค็นอินพุต 1 ล้านโทเค็น ≈ 750,000 คำ
  • ความสามารถที่ขยายเพิ่ม: รวมถึงการค้นหาบนเว็บ การรันโค้ด Python การวิเคราะห์ไฟล์ และการให้เหตุผลจากภาพ; การสร้างภาพยังไม่รองรับในการเปิดตัวครั้งนี้

ประสิทธิภาพด้านเบนช์มาร์ก

  • คณิตศาสตร์และวิทยาศาสตร์: เหนือกว่า Google Gemini 2.5 Pro ในการแข่งขัน AIME 2024 แสดงให้เห็นถึงความสามารถในการแก้ปัญหาที่โดดเด่นในคณิตศาสตร์ขั้นสูง
  • วิทยาศาสตร์ระดับปริญญาเอก: ทำผลงานได้ดีกว่า Claude 4 Opus ของ Anthropic บนเบนช์มาร์ก GPQA Diamond ซึ่งสะท้อนถึงความเชี่ยวชาญที่แข็งแกร่งในสาขาวิทยาศาสตร์
  • การใช้งานในองค์กร: การทดสอบภายในรายงานว่ามีผลลัพธ์ชนะอย่างสม่ำเสมอเหนือกว่าโมเดลรุ่นก่อนหน้าในงานด้านการเขียนโค้ด STEM และการให้เหตุผลทางธุรกิจ

ตัวชี้วัดทางเทคนิค

  • ความหน่วง: เวลาในการตอบสนองสูงกว่า o1-Pro—สะท้อนถึงกระบวนการให้เหตุผลที่ลึกขึ้น—โดยเฉลี่ยอยู่ที่ 1.5× ของความหน่วงก่อนหน้า
  • อัตราการประมวลผล: รองรับอัตราการสร้างโทเค็นต่อเนื่องสูงสุดถึง 10 โทเค็น/วินาที ในโหมด burst

ด้วยสายโซ่การให้เหตุผลที่ได้รับการปรับปรุง ชุดความสามารถที่ขยายขึ้น และประสิทธิภาพเบนช์มาร์กระดับแนวหน้า o3-Pro จึงนับเป็นก้าวสำคัญของ AI ที่เชื่อถือได้และมีความแม่นยำสูง

วิธีเข้าถึง o3-pro API

ขั้นตอนที่ 1: สมัครเพื่อรับ API Key

เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่ได้เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน จากนั้นเข้าสู่ CometAPI console ของคุณ รับข้อมูลรับรองการเข้าถึง API key ของอินเทอร์เฟซ คลิก “Add Token” ในส่วน API token ในศูนย์ส่วนบุคคลเพื่อรับ token key: sk-xxxxx แล้วส่งข้อมูล

ขั้นตอนที่ 2: ส่งคำขอไปยัง o3-pro API

เลือก endpoint “\**o3-pro\**” เพื่อส่งคำขอ API และกำหนด request body วิธีการร้องขอและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบด้วย Apifox เพื่อความสะดวกของคุณ แทนที่ <YOUR_API_KEY> ด้วย CometAPI key จริงจากบัญชีของคุณ

ใส่คำถามหรือคำขอของคุณลงในฟิลด์ content—นี่คือสิ่งที่โมเดลจะใช้ตอบกลับ . ประมวลผลการตอบกลับของ API เพื่อรับคำตอบที่สร้างขึ้น

ขั้นตอนที่ 3: ดึงและตรวจสอบผลลัพธ์

ประมวลผลการตอบกลับของ API เพื่อรับคำตอบที่สร้างขึ้น หลังจากประมวลผลแล้ว API จะตอบกลับด้วยสถานะงานและข้อมูลผลลัพธ์

โมเดลเพิ่มเติม

O

o4-mini-deep-research

O

o4-mini-deep-research

อินพุต:$1.6/M
เอาต์พุต:$6.4/M
O4-Mini-Deep-Research คือโมเดลการให้เหตุผลเชิงเอเจนต์รุ่นล่าสุดของ OpenAI ที่ผสานแบ็กโบน o4-mini แบบน้ำหนักเบาเข้ากับเฟรมเวิร์ก Deep Research ที่ล้ำหน้า ออกแบบมาเพื่อมอบการสังเคราะห์ข้อมูลเชิงลึกที่รวดเร็วและคุ้มค่า ช่วยให้นักพัฒนาและนักวิจัยสามารถทำการค้นหาเว็บแบบอัตโนมัติ การวิเคราะห์ข้อมูล และการให้เหตุผลแบบเป็นลำดับขั้นได้ภายในการเรียก API เพียงครั้งเดียว
L

Llama-4-Scout

L

Llama-4-Scout

อินพุต:$0.216/M
เอาต์พุต:$1.152/M
Llama-4-Scout เป็นโมเดลภาษาสำหรับวัตถุประสงค์ทั่วไปที่ใช้สำหรับการโต้ตอบแบบผู้ช่วยและการทำงานอัตโนมัติ มันสามารถจัดการงานทำตามคำสั่ง การให้เหตุผล การสรุป และการแปลงข้อมูล และยังรองรับการช่วยเหลือที่เกี่ยวข้องกับโค้ดในระดับเบื้องต้น การใช้งานทั่วไปประกอบด้วยการจัดการการสนทนาแชต การถาม-ตอบ (QA) ที่เสริมด้วยความรู้ และการสร้างเนื้อหาแบบมีโครงสร้าง จุดเด่นทางเทคนิคประกอบด้วยความเข้ากันได้กับรูปแบบการเรียกใช้เครื่องมือ/ฟังก์ชัน การพรอมต์ที่เสริมด้วยการค้นคืนข้อมูล และผลลัพธ์ที่ถูกจำกัดด้วยสคีมา เพื่อผสานรวมเข้ากับเวิร์กโฟลว์ของผลิตภัณฑ์
L

Llama-4-Maverick

L

Llama-4-Maverick

อินพุต:$0.48/M
เอาต์พุต:$1.44/M
Llama-4-Maverick เป็นโมเดลภาษาสำหรับการใช้งานทั่วไปที่ใช้ในการทำความเข้าใจและสร้างข้อความ รองรับการถามตอบแบบสนทนา การสรุปความ การร่างเนื้อหาแบบมีโครงสร้าง และตัวช่วยเขียนโค้ดขั้นพื้นฐาน พร้อมตัวเลือกสำหรับผลลัพธ์แบบมีโครงสร้าง การใช้งานทั่วไปได้แก่ ผู้ช่วยผลิตภัณฑ์ ส่วนหน้าเพื่อการค้นคืนความรู้ และการทำงานอัตโนมัติของเวิร์กโฟลว์ที่ต้องการการจัดรูปแบบที่สม่ำเสมอ รายละเอียดทางเทคนิค เช่น จำนวนพารามิเตอร์ หน้าต่างบริบท โมดาลิตี และการเรียกใช้เครื่องมือหรือฟังก์ชัน อาจแตกต่างกันไปตามดิสทริบิวชัน; ผสานรวมตามความสามารถที่ระบุไว้ในเอกสารของการปรับใช้นั้น
M

Kimi-K2

M

Kimi-K2

อินพุต:$0.48/M
เอาต์พุต:$1.92/M
- **kimi-k2-250905**: เวอร์ชัน 0905 ของซีรีส์ Kimi K2 ของ Moonshot AI รองรับบริบทยาวพิเศษ (สูงสุด 256k โทเค็น, ฟรอนต์เอนด์และการเรียกใช้เครื่องมือ). - 🧠 การเรียกใช้เครื่องมือที่ได้รับการปรับปรุง: ความแม่นยำ 100%, การผสานรวมอย่างไร้รอยต่อ, เหมาะสำหรับงานที่ซับซ้อนและการเพิ่มประสิทธิภาพในการผสานรวม. - ⚡️ ประสิทธิภาพที่สูงขึ้น: TPS สูงสุด 60-100 (standard API), สูงสุด 600-100 ในโหมด Turbo, มอบการตอบสนองที่รวดเร็วยิ่งขึ้นและความสามารถในการอนุมานที่ดีขึ้น, ขอบเขตความรู้ถึงช่วงกลางปี 2025.
X

Grok 3 Reasoner

X

Grok 3 Reasoner

อินพุต:$2.4/M
เอาต์พุต:$12/M
Grok-3 เป็นโมเดลให้เหตุผลที่มาพร้อมการให้เหตุผลแบบเป็นลำดับขั้น และเป็นคู่แข่งของ R1 จากฝั่ง Elon Musk. โมเดลนี้รองรับความยาวบริบทสูงสุด 100,000 โทเคน.
X

Grok 3 Mini

X

Grok 3 Mini

อินพุต:$0.24/M
เอาต์พุต:$0.4/M
โมเดลน้ำหนักเบาที่ไตร่ตรองก่อนตอบ. รวดเร็ว ฉลาด และเหมาะอย่างยิ่งสำหรับงานที่อาศัยตรรกะซึ่งไม่จำเป็นต้องใช้ความรู้เฉพาะทางเชิงลึก. สามารถเข้าถึงร่องรอยกระบวนการคิดแบบดิบได้. โมเดลนี้รองรับความยาวบริบทสูงสุด 100,000 โทเค็น.

บล็อกที่เกี่ยวข้อง

Veo3.1 ใหม่: ความสม่ำเสมอมากขึ้น, ผลลัพธ์ที่หลากหลายขึ้น และความสมบูรณ์ยิ่งขึ้น
Jan 14, 2026
veo-3-1

Veo3.1 ใหม่: ความสม่ำเสมอมากขึ้น, ผลลัพธ์ที่หลากหลายขึ้น และความสมบูรณ์ยิ่งขึ้น

Veo 3.1 ของ Google ได้รับการอัปเดตในเดือนมกราคม มาพร้อมการปรับปรุงแบบมุ่งเน้นที่ผลักดันเวิร์กโฟลว์แปลงภาพเป็นวิดีโอให้เข้าใกล้คุณภาพระดับโปรดักชันมากยิ่งขึ้น รุ่นนี้เน้นความเที่ยงตรงของการแปลงภาพเป็นวิดีโอ ความสม่ำเสมอด้านเวลาและตัวละครที่ดีขึ้น เอาต์พุตแนวตั้งแบบเนทีฟสำหรับแพลตฟอร์มมือถือ และเอาต์พุตความละเอียดสูงขึ้นผ่านคุณภาพ 1080p ที่ดีขึ้นและเส้นทางการอัปสเกลเป็น 4K สำหรับผู้สร้างสรรค์และนักพัฒนาที่ต้องใช้เวิร์กโฟลว์ “crop-then-edit” เพื่อทำฟอร์แมตแนวตั้งสำหรับโซเชียล เอาต์พุต 9:16 แบบเนทีฟและการอัปสเกลที่ดีขึ้นของ Veo 3.1 สัญญาว่าจะลดความยุ่งยากและส่งมอบคลิปที่ขัดเกลามากขึ้น พร้อมเผยแพร่บนแพลตฟอร์มได้ทันที