ข้อมูลพื้นฐานและคุณสมบัติเด่น
GPT-5 mini เป็นสมาชิกของตระกูล GPT-5 จาก OpenAI ที่ได้รับการปรับให้เหมาะสมด้าน ต้นทุนและเวลาแฝง มุ่งเน้นการมอบความสามารถด้านมัลติโหมดและการปฏิบัติตามคำสั่งของ GPT-5 เป็นส่วนใหญ่ด้วย ต้นทุนที่ต่ำลงอย่างมาก สำหรับการใช้งานระดับผลิตในวงกว้าง โดยมุ่งเป้าสภาพแวดล้อมที่ ปริมาณงาน, การกำหนดราคาต่อโทเค็นที่คาดการณ์ได้, และ การตอบสนองที่รวดเร็ว เป็นข้อจำกัดหลัก ขณะเดียวกันยังคงมอบความสามารถการใช้งานทั่วไปที่แข็งแกร่ง
- Model Name:
gpt-5-mini - Context Window: 400 000 tokens
- Max Output Tokens: 128 000
- Key features: ความเร็ว, ปริมาณงาน, ความคุ้มค่าด้านต้นทุน, ผลลัพธ์เชิงกำหนดสำหรับพรอมป์ที่กระชับ
gpt-5-mini ทำงานอย่างไร?
เส้นทางการอนุมานและการปรับใช้ที่เพิ่มประสิทธิภาพ. การเร่งความเร็วในการใช้งานจริงมาจาก kernel fusion, tensor parallelism ที่ปรับจูนให้เหมาะกับกราฟที่เล็กกว่า และรันไทม์การอนุมานที่ให้ความสำคัญกับลูป “คิด” ภายในที่สั้นกว่า เว้นแต่นักพัฒนาจะร้องขอการให้เหตุผลที่ลึกขึ้น นั่นคือเหตุผลที่ mini ใช้คอมพิวต์ต่อการเรียกต่ำลงอย่างเห็นได้ชัดและมีเวลาแฝงที่คาดการณ์ได้สำหรับทราฟฟิกปริมาณสูง การแลกเปลี่ยนนี้เป็นไปโดยตั้งใจ: คอมพิวต์ต่อการส่งต่อหนึ่งครั้งที่ต่ำลง → ต้นทุนและเวลาแฝงเฉลี่ยที่ต่ำลง
การควบคุมสำหรับนักพัฒนา. GPT-5 mini เปิดเผยพารามิเตอร์อย่างเช่น verbosity (ควบคุมระดับรายละเอียด/ความยาว) และ reasoning_effort (แลกความเร็วกับความลึก) พร้อมรองรับ tool-calling อย่างแข็งแรง (การเรียกใช้ฟังก์ชัน, สายโซ่เครื่องมือแบบขนาน และการจัดการข้อผิดพลาดเชิงโครงสร้าง) ซึ่งช่วยให้ระบบระดับผลิตสามารถปรับจูนความแม่นยำกับต้นทุนได้อย่างแม่นยำ
ประสิทธิภาพตามเกณฑ์มาตรฐาน — ตัวเลขสำคัญและคำอธิบาย
โดยทั่วไป GPT-5 mini ทำผลงานอยู่ภายในช่วง ประมาณ ~85–95% ของ GPT-5 high บนเกณฑ์มาตรฐานทั่วไป พร้อมทั้งปรับปรุงเวลาแฝง/ราคาอย่างมีนัยสำคัญ เอกสารเปิดตัวแพลตฟอร์มระบุว่า GPT-5 high ได้คะแนนสัมบูรณ์ที่สูงมาก (AIME ≈ 94.6% สำหรับรุ่นบนสุด) โดย mini ต่ำกว่าบ้างแต่ยังคงนำอุตสาหกรรมเมื่อเทียบกับระดับราคา
ในหลากหลายเกณฑ์มาตรฐานแบบมาตรฐานและภายในองค์กร GPT-5 mini ทำได้ดังนี้:
- Intelligence (AIME ’25): 91.1% (เทียบกับ 94.6% สำหรับ GPT-5 high)
- Multimodal (MMMU): 81.6% (เทียบกับ 84.2% สำหรับ GPT-5 high)
- Coding (SWE-bench Verified): 71.0% (เทียบกับ 74.9% สำหรับ GPT-5 high)
- Instruction Following (Scale MultiChallenge): 62.3% (เทียบกับ 69.6%)
- Function Calling (τ²-bench telecom): 74.1% (เทียบกับ 96.7%)
- Hallucination Rates (LongFact-Concepts): 0.7% (ยิ่งต่ำยิ่งดี)([OpenAI][4])
ผลลัพธ์เหล่านี้แสดงให้เห็นถึงการแลกเปลี่ยนที่แข็งแกร่งของ GPT-5 mini ระหว่างประสิทธิภาพ ต้นทุน และความเร็ว
ข้อจำกัด
ข้อจำกัดที่ทราบ: GPT-5 mini ความสามารถด้านการให้เหตุผลเชิงลึกที่ลดลงเมื่อเทียบกับ GPT-5 แบบเต็ม ความไวต่อพรอมป์ที่คลุมเครือสูงขึ้น และยังมีความเสี่ยงของการหลอนอยู่
- การให้เหตุผลเชิงลึกที่ลดลง: สำหรับงานที่ต้องให้เหตุผลหลายขั้นตอนและระยะยาว รุ่นให้เหตุผลเต็มรูปแบบหรือรุ่น “คิด” จะทำได้ดีกว่า mini
- การหลอน & ความมั่นใจเกินจริง: mini ลดอัตราหลอนเมื่อเทียบกับรุ่นเล็กมากๆ แต่ยังไม่หมดไป; ผลลัพธ์ควรถูกตรวจสอบในงานที่มีความเสี่ยงสูง (กฎหมาย การแพทย์ การกำกับดูแล)
- ความไวต่อบริบท: บริบทที่ยาวมากและมีความเชื่อมโยงกันสูงเหมาะกับรุ่น GPT-5 แบบเต็มที่มีหน้าต่างบริบทใหญ่กว่าหรือรุ่น “คิด”
- ข้อจำกัดด้านความปลอดภัยและนโยบาย: มาตรการคุ้มครองและขีดจำกัดการใช้งานเหมือนกับรุ่น GPT-5 อื่นๆ; งานอ่อนไหวต้องมีการกำกับดูแลจากมนุษย์
gpt-5-mini ทำอะไรได้บ้าง?
- เอเจนต์สนทนาปริมาณสูง: เวลาแฝงต่ำ ต้นทุนคาดการณ์ได้
- สรุปเอกสารและมัลติโหมด: สรุปบริบทยาว รายงานภาพ+ข้อความ
- เครื่องมือสำหรับนักพัฒนาที่สเกลใหญ่: ตรวจโค้ดใน CI รีวิวอัตโนมัติ สร้างโค้ดแบบเบา
- การประสานงานเอเจนต์: tool-calling ด้วยสายโซ่แบบขนานเมื่อไม่ต้องการการให้เหตุผลเชิงลึก
จะเริ่มใช้งาน gpt-5-mini API ได้อย่างไร?
ขั้นตอนที่จำเป็น
- เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน
- รับคีย์ API สิทธิ์เข้าถึงของอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับคีย์โทเค็น: sk-xxxxx แล้วส่ง
- รับ url ของไซต์นี้: https://api.cometapi.com/
วิธีใช้งาน
- เลือกเอ็นด์พอยต์ “
gpt-5-mini“ / "gpt-5-mini-2025-08-07" เพื่อส่งคำขอ API และกำหนด request body วิธีการร้องขอและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณ - แทนที่ <YOUR_API_KEY> ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
- ใส่คำถามหรือคำร้องขอของคุณในฟิลด์ content—นี่คือสิ่งที่โมเดลจะตอบกลับ
- . ประมวลผลการตอบกลับของ API เพื่อรับคำตอบที่สร้างขึ้น
CometAPI มอบ REST API ที่เข้ากันได้อย่างสมบูรณ์—เพื่อการย้ายใช้งานอย่างไร้รอยต่อ รายละเอียดสำคัญดูที่ เอกสาร API:
- Core Parameters:
prompt,max_tokens_to_sample,temperature,stop_sequences - Endpoint: https://api.cometapi.com/v1/chat/completions
- Model Parameter: “
gpt-5-mini“ / "gpt-5-mini-2025-08-07" - Authentication:
Bearer YOUR_CometAPI_API_KEY - Content-Type:
application/json.
API Call Instructions: gpt-5-chat-latest ควรถูกเรียกโดยใช้มาตรฐาน /v1/chat/completions format สำหรับรุ่นอื่น (gpt-5, gpt-5-mini, gpt-5-nano และรุ่นที่มีวันที่กำกับ) แนะนำให้ใช้ the /v1/responses format แนะนำ ปัจจุบันมีสองโหมดให้ใช้งาน