GPT-5 มินิ API

CometAPI
AnnaAug 8, 2025

GPT-5 mini เป็น มีน้ำหนักเบาตัวแปรที่ปรับต้นทุนให้เหมาะสมของโมเดล GPT-5 เรือธงของ OpenAI ออกแบบมาเพื่อส่งมอบ ที่มีคุณภาพสูง การใช้เหตุผลและความสามารถแบบหลายโหมดโดยลดเวลาแฝงและค่าใช้จ่าย

ข้อมูลพื้นฐานและคุณสมบัติหลัก

GPT-5 มินิ เป็นของ OpenAI ปรับให้เหมาะสมกับต้นทุนและเวลาแฝง สมาชิกของครอบครัว GPT-5 มีวัตถุประสงค์เพื่อส่งมอบจุดแข็งด้านมัลติโหมดและการติดตามคำสั่งของ GPT-5 เป็นจำนวนมาก ต้นทุนลดลงอย่างมาก สำหรับการผลิตขนาดใหญ่ โดยมุ่งเป้าไปที่สภาพแวดล้อมที่ ปริมาณงาน, ราคาต่อโทเค็นที่คาดเดาได้และ การตอบสนองที่รวดเร็ว เป็นข้อจำกัดหลักแต่ยังคงให้ความสามารถวัตถุประสงค์ทั่วไปที่แข็งแกร่ง

  • ชื่อรุ่น: gpt-5-mini
  • หน้าต่างบริบท: 400 โทเค็น
  • โทเค็นเอาท์พุตสูงสุด: 128 000
  • คุณสมบัติที่สำคัญ: ความเร็ว ปริมาณงาน ประสิทธิภาพต้นทุน ผลลัพธ์ที่กำหนดไว้สำหรับคำเตือนที่กระชับ

รายละเอียดทางเทคนิค — สถาปัตยกรรม การอนุมาน และการควบคุม

เส้นทางการอนุมานและการปรับใช้ที่ได้รับการเพิ่มประสิทธิภาพ การเร่งความเร็วในทางปฏิบัติมาจาก ฟิวชั่นเคอร์เนล, การปรับความขนานของเทนเซอร์ให้เหมาะกับกราฟขนาดเล็กและรันไทม์การอนุมานที่ต้องการ วงจร “ความคิด” ภายในที่สั้นลง เว้นแต่ผู้พัฒนาจะขอเหตุผลที่ลึกซึ้งกว่านั้น นั่นคือเหตุผลที่ mini สามารถลดการประมวลผลต่อการเรียกใช้งานลงอย่างเห็นได้ชัด และลดเวลาแฝงที่คาดการณ์ได้สำหรับปริมาณการรับส่งข้อมูลสูง การแลกเปลี่ยนนี้เกิดขึ้นโดยเจตนา: การคำนวณต่อการส่งไปข้างหน้าที่ต่ำกว่า → ต้นทุนที่ต่ำกว่า และเวลาแฝงเฉลี่ยที่ต่ำกว่า.

การควบคุมของนักพัฒนา GPT-5 mini เปิดเผยพารามิเตอร์เช่น verbosity (ควบคุมรายละเอียด/ความยาว) และ reasoning_effort (ความเร็วในการซื้อขายเทียบกับความลึก) บวกกับความแข็งแกร่ง การเรียกเครื่องมือ การสนับสนุน (การเรียกใช้ฟังก์ชัน ชุดเครื่องมือคู่ขนาน และการจัดการข้อผิดพลาดที่มีโครงสร้าง) ซึ่งช่วยให้ระบบการผลิตปรับความแม่นยำเทียบกับต้นทุนได้อย่างแม่นยำ

ประสิทธิภาพเกณฑ์มาตรฐาน — ตัวเลขพาดหัวข่าวและการตีความ

GPT-5 mini มักจะนั่งอยู่ ภายใน ~85–95% ของ GPT-5 ที่สูงในเกณฑ์มาตรฐานทั่วไป ในขณะที่ปรับปรุงความหน่วง/ราคาได้อย่างมีนัยสำคัญ เอกสารประกอบการเปิดตัวแพลตฟอร์มบ่งชี้ว่า คะแนนสัมบูรณ์สูงมาก สำหรับ GPT-5 สูง (AIME ≈ 94.6% รายงานสำหรับรุ่นท็อป) โดยรุ่นมินิมีราคาต่ำกว่าเล็กน้อยแต่ยังคงเป็นผู้นำในอุตสาหกรรมเมื่อพิจารณาจากราคา

ผ่านเกณฑ์มาตรฐานและเกณฑ์มาตรฐานภายในต่างๆ GPT-5 มินิ บรรลุ:

  • Intelligence (AIME '25): 91.1% (เทียบกับ 94.6% สำหรับ GPT-5 สูง)
  • หลายรูปแบบ (MMMU): 81.6% (เทียบกับ 84.2% สำหรับ GPT-5 สูง)
  • การเข้ารหัส (SWE-bench Verified): 71.0% (เทียบกับ 74.9% สำหรับ GPT-5 สูง)
  • ทำตามคำแนะนำ (วัดผลแบบ MultiChallenge): 62.3% (เทียบกับ 69.6%)
  • การเรียกใช้ฟังก์ชัน (τ²-bench telecom): 74.1% (เทียบกับ 96.7%)
  • อัตราการประสาทหลอน (LongFact-Concepts): 0.7% (ยิ่งต่ำยิ่งดี)()

ผลลัพธ์เหล่านี้แสดงให้เห็นถึง GPT-5 mini แข็งแรง การแลกเปลี่ยนระหว่างประสิทธิภาพ ต้นทุน และความเร็ว

ข้อ จำกัด

ข้อจำกัดที่ทราบ: GPT-5 มินิ ความสามารถในการใช้เหตุผลเชิงลึกลดลงเมื่อเทียบกับ GPT-5 เต็มรูปแบบ ความไวต่อคำเตือนที่คลุมเครือสูงขึ้น และความเสี่ยงต่ออาการประสาทหลอนที่ยังคงมีอยู่

  • การลดการใช้เหตุผลเชิงลึก: สำหรับงานการใช้เหตุผลแบบหลายขั้นตอนในขอบเขตยาว โมเดลการใช้เหตุผลเต็มรูปแบบหรือรูปแบบ "การคิด" จะให้ประสิทธิภาพเหนือกว่าแบบมินิ
  • อาการประสาทหลอนและความมั่นใจมากเกินไป: Mini ช่วยลดอาการประสาทหลอนเมื่อเทียบกับโมเดลขนาดเล็กมาก แต่ไม่สามารถขจัดอาการประสาทหลอนได้ ผลลัพธ์ควรได้รับการตรวจสอบในกระบวนการที่มีความสำคัญสูง (ทางกฎหมาย ทางคลินิก การปฏิบัติตามข้อกำหนด)
  • ความละเอียดอ่อนของบริบท: โซ่บริบทที่ยาวมากและมีความสัมพันธ์กันอย่างมากนั้นได้รับการตอบสนองได้ดีกว่าด้วยรูปแบบ GPT-5 เต็มรูปแบบที่มีหน้าต่างบริบทที่ใหญ่กว่าหรือโมเดล "การคิด"
  • ข้อจำกัดด้านความปลอดภัยและนโยบาย: ราวกันตกด้านความปลอดภัยและอัตรา/ขีดจำกัดการใช้งานแบบเดียวกันที่ใช้กับรุ่น GPT-5 อื่นๆ ก็ใช้กับงานขนาดเล็กเช่นกัน งานที่ละเอียดอ่อนต้องมีการดูแลโดยมนุษย์

กรณีการใช้งานที่แนะนำ (ที่มินิโดดเด่น)

  • ตัวแทนสนทนาที่มีปริมาณสูง: ความหน่วงต่ำ ต้นทุนที่คาดเดาได้ คำที่เกี่ยวข้อง: ปริมาณงาน.
  • การสรุปเอกสารและหลายโหมด: การสรุปบริบทยาว รายงานภาพ+ข้อความ คำที่เกี่ยวข้อง: บริบทยาว.
  • เครื่องมือสำหรับนักพัฒนาในระดับขนาดใหญ่: การตรวจสอบโค้ด CI การตรวจสอบอัตโนมัติ การสร้างโค้ดน้ำหนักเบา คำที่เกี่ยวข้อง: การเข้ารหัสที่คุ้มต้นทุน.
  • การประสานงานตัวแทน: การเรียกเครื่องมือด้วยโซ่คู่ขนานเมื่อไม่จำเป็นต้องใช้การใช้เหตุผลเชิงลึก คำที่เกี่ยวข้อง: การเรียกเครื่องมือ.

วิธีการโทร gpt-5-mini API จาก CometAPI

gpt-5-mini ราคา API ใน CometAPI ลด 20% จากราคาอย่างเป็นทางการ:

อินพุตโทเค็น$0.20
โทเค็นเอาท์พุต$1.60

ขั้นตอนที่ต้องดำเนินการ

  • เข้าสู่ระบบเพื่อ โคเมตาปิดอทคอม. หากคุณยังไม่ได้เป็นผู้ใช้ของเรา กรุณาลงทะเบียนก่อน
  • รับรหัส API ของข้อมูลรับรองการเข้าถึงของอินเทอร์เฟซ คลิก "เพิ่มโทเค็น" ที่โทเค็น API ในศูนย์ส่วนบุคคล รับรหัสโทเค็น: sk-xxxxx และส่ง
  • รับ url ของเว็บไซต์นี้: https://api.cometapi.com/

ใช้วิธีการ

  1. เลือก“gpt-5-mini-gpt-5-mini-2025-08-07” จุดสิ้นสุดในการส่งคำขอ API และกำหนดเนื้อหาคำขอ วิธีการคำขอและเนื้อหาคำขอได้รับจากเอกสาร API ของเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณอีกด้วย
  2. แทนที่ ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
  3. แทรกคำถามหรือคำขอของคุณลงในช่องเนื้อหา—นี่คือสิ่งที่โมเดลจะตอบสนอง
  4. ประมวลผลการตอบสนองของ API เพื่อรับคำตอบที่สร้างขึ้น

CometAPI มอบ REST API ที่เข้ากันได้อย่างสมบูรณ์ เพื่อการย้ายข้อมูลที่ราบรื่น รายละเอียดสำคัญ  เอกสาร API:

  • พารามิเตอร์หลักpromptmax_tokens_to_sampletemperaturestop_sequences
  • ปลายทาง: https://api.cometapi.com/v1/chat/completions
  • พารามิเตอร์รุ่น: "gpt-5-mini-gpt-5-mini-2025-08-07"
  • รับรองความถูกต้อง: Bearer YOUR_CometAPI_API_KEY
  • ชนิดของเนื้อหา: application/json .

คำแนะนำการเรียก API: ควรเรียก gpt-5-chat-latest โดยใช้มาตรฐาน /v1/chat/completions format. สำหรับรุ่นอื่นๆ (gpt-5, gpt-5-mini, gpt-5-nano และรุ่นที่ล้าสมัย) โดยใช้ the /v1/responses format ขอแนะนำ. ปัจจุบันมีให้เลือกใช้งาน 2 โหมด

ดูเพิ่มเติม จีพีที-5 รุ่น

SHARE THIS BLOG

อ่านเพิ่มเติม

Mistral Large 3 คืออะไร? คำอธิบายเชิงลึก
January 21, 1970

Mistral Large 3 คืออะไร? คำอธิบายเชิงลึก

Mistral Large 3 เป็นตระกูลโมเดล “แนวหน้า” ล่าสุดที่ Mistral AI เปิดตัวในช่วงต้นเดือนธันวาคม 2025 เป็นโมเดลพื้นฐานแบบมัลติโมดัลที่มีน้ำหนักเปิด มุ่งเน้นการใช้งานในสภาพแวดล้อมการผลิต สร้างขึ้นโดยยึดการออกแบบ **Mixture-of-Experts (MoE) แบบสแปร์สที่มีความละเอียดสูง** และมุ่งหมายให้มอบการให้เหตุผลระดับ “แนวหน้า” ความเข้าใจบริบทยาว และความสามารถด้านภาพ + ข้อความ ในขณะเดียวกันก็ทำให้การอินเฟอร์เรนซ์ใช้งานได้จริงผ่านความสแปร์สและการควอนไทซ์สมัยใหม่ ระบุว่า Mistral Large 3 มี **พารามิเตอร์ทั้งหมด 675 พันล้าน** โดยมี **~41 พันล้านพารามิเตอร์ที่ใช้งานอยู่** ระหว่างอินเฟอร์เรนซ์ และหน้าต่างบริบท **256k โทเค็น** ในการตั้งค่าเริ่มต้น — การผสมผสานที่ออกแบบมาเพื่อผลักดันทั้งขีดความสามารถและสเกล โดยไม่บังคับให้การอินเฟอร์เรนซ์ทุกครั้งต้องแตะพารามิเตอร์ทั้งหมด

500+ โมเดลใน API เดียว

ลดราคาสูงสุด 20%