โมเดลสนับสนุนองค์กรบล็อก
500+ AI Model API ทั้งหมดในหนึ่ง API เพียงแค่ใน CometAPI
API โมเดล
นักพัฒนา
เริ่มต้นอย่างรวดเร็วเอกสารประกอบแดชบอร์ด API
ทรัพยากร
โมเดล AIบล็อกองค์กรบันทึกการเปลี่ยนแปลงเกี่ยวกับ
2025 CometAPI สงวนลิขสิทธิ์ทั้งหมดนโยบายความเป็นส่วนตัวข้อกำหนดการให้บริการ
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

อินพุต:$0.2/M
เอาต์พุต:$1.6/M
บริบท:400K
เอาต์พุตสูงสุด:128K
GPT-5 mini เป็นสมาชิกของตระกูล GPT-5 ของ OpenAI ที่ได้รับการปรับให้เหมาะสมด้านต้นทุนและเวลาแฝง โดยมุ่งหมายจะส่งมอบจุดแข็งด้านมัลติโหมดและความสามารถในการทำตามคำสั่งของ GPT-5 ได้เป็นส่วนใหญ่ ขณะที่ลดต้นทุนลงอย่างมากสำหรับการใช้งานในระดับการผลิตขนาดใหญ่ โดยมุ่งเป้าสู่สภาพแวดล้อมที่ข้อจำกัดหลักคืออัตราการผ่านงาน (throughput) การกำหนดราคาแบบต่อโทเค็นที่คาดการณ์ได้ และการตอบสนองที่รวดเร็ว ขณะเดียวกันก็ยังคงมอบความสามารถแบบอเนกประสงค์ที่แข็งแกร่ง
ใหม่
ใช้งานเชิงพาณิชย์
Playground
ภาพรวม
คุณสมบัติ
ราคา
API

ข้อมูลพื้นฐานและคุณสมบัติเด่น

GPT-5 mini เป็นสมาชิกของตระกูล GPT-5 จาก OpenAI ที่ได้รับการปรับให้เหมาะสมด้าน ต้นทุนและเวลาแฝง มุ่งเน้นการมอบความสามารถด้านมัลติโหมดและการปฏิบัติตามคำสั่งของ GPT-5 เป็นส่วนใหญ่ด้วย ต้นทุนที่ต่ำลงอย่างมาก สำหรับการใช้งานระดับผลิตในวงกว้าง โดยมุ่งเป้าสภาพแวดล้อมที่ ปริมาณงาน, การกำหนดราคาต่อโทเค็นที่คาดการณ์ได้, และ การตอบสนองที่รวดเร็ว เป็นข้อจำกัดหลัก ขณะเดียวกันยังคงมอบความสามารถการใช้งานทั่วไปที่แข็งแกร่ง

  • Model Name: gpt-5-mini
  • Context Window: 400 000 tokens
  • Max Output Tokens: 128 000
  • Key features: ความเร็ว, ปริมาณงาน, ความคุ้มค่าด้านต้นทุน, ผลลัพธ์เชิงกำหนดสำหรับพรอมป์ที่กระชับ

gpt-5-mini ทำงานอย่างไร?

เส้นทางการอนุมานและการปรับใช้ที่เพิ่มประสิทธิภาพ. การเร่งความเร็วในการใช้งานจริงมาจาก kernel fusion, tensor parallelism ที่ปรับจูนให้เหมาะกับกราฟที่เล็กกว่า และรันไทม์การอนุมานที่ให้ความสำคัญกับลูป “คิด” ภายในที่สั้นกว่า เว้นแต่นักพัฒนาจะร้องขอการให้เหตุผลที่ลึกขึ้น นั่นคือเหตุผลที่ mini ใช้คอมพิวต์ต่อการเรียกต่ำลงอย่างเห็นได้ชัดและมีเวลาแฝงที่คาดการณ์ได้สำหรับทราฟฟิกปริมาณสูง การแลกเปลี่ยนนี้เป็นไปโดยตั้งใจ: คอมพิวต์ต่อการส่งต่อหนึ่งครั้งที่ต่ำลง → ต้นทุนและเวลาแฝงเฉลี่ยที่ต่ำลง

การควบคุมสำหรับนักพัฒนา. GPT-5 mini เปิดเผยพารามิเตอร์อย่างเช่น verbosity (ควบคุมระดับรายละเอียด/ความยาว) และ reasoning_effort (แลกความเร็วกับความลึก) พร้อมรองรับ tool-calling อย่างแข็งแรง (การเรียกใช้ฟังก์ชัน, สายโซ่เครื่องมือแบบขนาน และการจัดการข้อผิดพลาดเชิงโครงสร้าง) ซึ่งช่วยให้ระบบระดับผลิตสามารถปรับจูนความแม่นยำกับต้นทุนได้อย่างแม่นยำ

ประสิทธิภาพตามเกณฑ์มาตรฐาน — ตัวเลขสำคัญและคำอธิบาย

โดยทั่วไป GPT-5 mini ทำผลงานอยู่ภายในช่วง ประมาณ ~85–95% ของ GPT-5 high บนเกณฑ์มาตรฐานทั่วไป พร้อมทั้งปรับปรุงเวลาแฝง/ราคาอย่างมีนัยสำคัญ เอกสารเปิดตัวแพลตฟอร์มระบุว่า GPT-5 high ได้คะแนนสัมบูรณ์ที่สูงมาก (AIME ≈ 94.6% สำหรับรุ่นบนสุด) โดย mini ต่ำกว่าบ้างแต่ยังคงนำอุตสาหกรรมเมื่อเทียบกับระดับราคา

ในหลากหลายเกณฑ์มาตรฐานแบบมาตรฐานและภายในองค์กร GPT-5 mini ทำได้ดังนี้:

  • Intelligence (AIME ’25): 91.1% (เทียบกับ 94.6% สำหรับ GPT-5 high)
  • Multimodal (MMMU): 81.6% (เทียบกับ 84.2% สำหรับ GPT-5 high)
  • Coding (SWE-bench Verified): 71.0% (เทียบกับ 74.9% สำหรับ GPT-5 high)
  • Instruction Following (Scale MultiChallenge): 62.3% (เทียบกับ 69.6%)
  • Function Calling (τ²-bench telecom): 74.1% (เทียบกับ 96.7%)
  • Hallucination Rates (LongFact-Concepts): 0.7% (ยิ่งต่ำยิ่งดี)([OpenAI][4])

ผลลัพธ์เหล่านี้แสดงให้เห็นถึงการแลกเปลี่ยนที่แข็งแกร่งของ GPT-5 mini ระหว่างประสิทธิภาพ ต้นทุน และความเร็ว

ข้อจำกัด

ข้อจำกัดที่ทราบ: GPT-5 mini ความสามารถด้านการให้เหตุผลเชิงลึกที่ลดลงเมื่อเทียบกับ GPT-5 แบบเต็ม ความไวต่อพรอมป์ที่คลุมเครือสูงขึ้น และยังมีความเสี่ยงของการหลอนอยู่

  • การให้เหตุผลเชิงลึกที่ลดลง: สำหรับงานที่ต้องให้เหตุผลหลายขั้นตอนและระยะยาว รุ่นให้เหตุผลเต็มรูปแบบหรือรุ่น “คิด” จะทำได้ดีกว่า mini
  • การหลอน & ความมั่นใจเกินจริง: mini ลดอัตราหลอนเมื่อเทียบกับรุ่นเล็กมากๆ แต่ยังไม่หมดไป; ผลลัพธ์ควรถูกตรวจสอบในงานที่มีความเสี่ยงสูง (กฎหมาย การแพทย์ การกำกับดูแล)
  • ความไวต่อบริบท: บริบทที่ยาวมากและมีความเชื่อมโยงกันสูงเหมาะกับรุ่น GPT-5 แบบเต็มที่มีหน้าต่างบริบทใหญ่กว่าหรือรุ่น “คิด”
  • ข้อจำกัดด้านความปลอดภัยและนโยบาย: มาตรการคุ้มครองและขีดจำกัดการใช้งานเหมือนกับรุ่น GPT-5 อื่นๆ; งานอ่อนไหวต้องมีการกำกับดูแลจากมนุษย์

gpt-5-mini ทำอะไรได้บ้าง?

  • เอเจนต์สนทนาปริมาณสูง: เวลาแฝงต่ำ ต้นทุนคาดการณ์ได้
  • สรุปเอกสารและมัลติโหมด: สรุปบริบทยาว รายงานภาพ+ข้อความ
  • เครื่องมือสำหรับนักพัฒนาที่สเกลใหญ่: ตรวจโค้ดใน CI รีวิวอัตโนมัติ สร้างโค้ดแบบเบา
  • การประสานงานเอเจนต์: tool-calling ด้วยสายโซ่แบบขนานเมื่อไม่ต้องการการให้เหตุผลเชิงลึก

จะเริ่มใช้งาน gpt-5-mini API ได้อย่างไร?

ขั้นตอนที่จำเป็น

  • เข้าสู่ระบบที่ cometapi.com หากคุณยังไม่เป็นผู้ใช้ของเรา โปรดลงทะเบียนก่อน
  • รับคีย์ API สิทธิ์เข้าถึงของอินเทอร์เฟซ คลิก “Add Token” ที่ API token ในศูนย์ส่วนบุคคล รับคีย์โทเค็น: sk-xxxxx แล้วส่ง
  • รับ url ของไซต์นี้: https://api.cometapi.com/

วิธีใช้งาน

  1. เลือกเอ็นด์พอยต์ “gpt-5-mini“ / "gpt-5-mini-2025-08-07" เพื่อส่งคำขอ API และกำหนด request body วิธีการร้องขอและ request body สามารถดูได้จากเอกสาร API บนเว็บไซต์ของเรา เว็บไซต์ของเรายังมีการทดสอบ Apifox เพื่อความสะดวกของคุณ
  2. แทนที่ <YOUR_API_KEY> ด้วยคีย์ CometAPI จริงจากบัญชีของคุณ
  3. ใส่คำถามหรือคำร้องขอของคุณในฟิลด์ content—นี่คือสิ่งที่โมเดลจะตอบกลับ
  4. . ประมวลผลการตอบกลับของ API เพื่อรับคำตอบที่สร้างขึ้น

CometAPI มอบ REST API ที่เข้ากันได้อย่างสมบูรณ์—เพื่อการย้ายใช้งานอย่างไร้รอยต่อ รายละเอียดสำคัญดูที่ เอกสาร API:

  • Core Parameters: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Model Parameter: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Authentication:  Bearer YOUR_CometAPI_API_KEY 
  • Content-Type: application/json .

API Call Instructions: gpt-5-chat-latest ควรถูกเรียกโดยใช้มาตรฐาน /v1/chat/completions format สำหรับรุ่นอื่น (gpt-5, gpt-5-mini, gpt-5-nano และรุ่นที่มีวันที่กำกับ) แนะนำให้ใช้ the /v1/responses format แนะนำ ปัจจุบันมีสองโหมดให้ใช้งาน

คุณสมบัติสำหรับ GPT-5 mini

สำรวจคุณสมบัติหลักของ GPT-5 mini ที่ออกแบบมาเพื่อเพิ่มประสิทธิภาพและความสะดวกในการใช้งาน ค้นพบว่าความสามารถเหล่านี้สามารถเป็นประโยชน์ต่อโครงการของคุณและปรับปรุงประสบการณ์ของผู้ใช้ได้อย่างไร

ราคาสำหรับ GPT-5 mini

สำรวจราคาที่แข่งขันได้สำหรับ GPT-5 mini ที่ออกแบบมาให้เหมาะสมกับงบประมาณและความต้องการการใช้งานที่หลากหลาย แผนการบริการที่ยืดหยุ่นของเรารับประกันว่าคุณจะจ่ายเฉพาะสิ่งที่คุณใช้เท่านั้น ทำให้สามารถขยายขนาดได้ง่ายเมื่อความต้องการของคุณเพิ่มขึ้น ค้นพบว่า GPT-5 mini สามารถยกระดับโปรเจกต์ของคุณได้อย่างไรในขณะที่ควบคุมต้นทุนให้อยู่ในระดับที่จัดการได้
ราคา Comet (USD / M Tokens)ราคาทางการ (USD / M Tokens)ส่วนลด
อินพุต:$0.2/M
เอาต์พุต:$1.6/M
อินพุต:$0.25/M
เอาต์พุต:$2/M
-20%

โค้ดตัวอย่างและ API สำหรับ GPT-5 mini

GPT-5 mini เป็นรุ่นย่อยที่มีน้ำหนักเบาและปรับต้นทุนให้เหมาะสมของโมเดลเรือธง GPT-5 ของ OpenAI ซึ่งออกแบบมาเพื่อมอบความสามารถด้านการให้เหตุผลคุณภาพสูงและการประมวลผลหลายรูปแบบ โดยมีเวลาแฝงและค่าใช้จ่ายที่ลดลง
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

โมเดลเพิ่มเติม

A

Claude Opus 4.6

อินพุต:$4/M
เอาต์พุต:$20/M
Claude Opus 4.6 เป็นโมเดลภาษาขนาดใหญ่ระดับ “Opus” ของ Anthropic เปิดตัวในเดือนกุมภาพันธ์ 2026. ถูกวางตำแหน่งให้เป็นกำลังหลักสำหรับงานเชิงความรู้และเวิร์กโฟลว์การวิจัย — ปรับปรุงการให้เหตุผลในบริบทยาว การวางแผนหลายขั้นตอน การใช้เครื่องมือ (รวมถึงเวิร์กโฟลว์ซอฟต์แวร์เชิงตัวแทน) และงานการใช้คอมพิวเตอร์ เช่น การสร้างสไลด์และสเปรดชีตอัตโนมัติ.
A

Claude Sonnet 4.6

อินพุต:$2.4/M
เอาต์พุต:$12/M
Claude Sonnet 4.6 เป็นโมเดล Sonnet ที่มีความสามารถมากที่สุดเท่าที่เคยมีมา เป็นการอัปเกรดเต็มรูปแบบของทักษะของโมเดล ครอบคลุมการเขียนโค้ด การใช้งานคอมพิวเตอร์ การให้เหตุผลในบริบทยาว การวางแผนของเอเจนต์ งานด้านความรู้ และการออกแบบ Sonnet 4.6 ยังมาพร้อมกับหน้าต่างบริบทขนาด 1M โทเค็นในเวอร์ชันเบต้า
O

GPT-5.4 nano

อินพุต:$0.16/M
เอาต์พุต:$1/M
GPT-5.4 nano ถูกออกแบบมาสำหรับงานที่ความเร็วและต้นทุนมีความสำคัญสูงสุด เช่น การจำแนกประเภท การสกัดข้อมูล การจัดอันดับ และเอเจนต์ย่อย.
O

GPT-5.4 mini

อินพุต:$0.6/M
เอาต์พุต:$3.6/M
GPT-5.4 mini นำจุดแข็งของ GPT-5.4 มาสู่โมเดลที่เร็วกว่าและมีประสิทธิภาพมากขึ้น ซึ่งออกแบบมาสำหรับภาระงานปริมาณมาก
A

Claude Mythos Preview

A

Claude Mythos Preview

เร็วๆ นี้
อินพุต:$60/M
เอาต์พุต:$240/M
Claude Mythos Preview เป็นโมเดลระดับแนวหน้าที่มีความสามารถสูงสุดของเราจนถึงปัจจุบัน และทำคะแนนก้าวกระโดดอย่างชัดเจน บนเบนช์มาร์กการประเมินหลายรายการ เมื่อเทียบกับโมเดลระดับแนวหน้ารุ่นก่อนของเรา Claude Opus 4.6.
X

mimo-v2-pro

อินพุต:$0.8/M
เอาต์พุต:$2.4/M
MiMo-V2-Pro คือโมเดลพื้นฐานเรือธงของ Xiaomi ที่มีพารามิเตอร์รวมมากกว่า 1T และความยาวคอนเท็กซ์ 1M โดยได้รับการปรับแต่งอย่างลึกซึ้งสำหรับสถานการณ์แบบเอเจนต์ มีความสามารถในการปรับใช้ได้สูงกับเฟรมเวิร์กเอเจนต์ทั่วไป เช่น OpenClaw โดยติดอันดับระดับแนวหน้าของโลกในการทดสอบมาตรฐาน PinchBench และ ClawBench และมีประสิทธิภาพที่รับรู้ได้ใกล้เคียงกับ Opus 4.6 MiMo-V2-Pro ได้รับการออกแบบมาเพื่อทำหน้าที่เป็นสมองของระบบเอเจนต์ ประสานการทำงานของเวิร์กโฟลว์ที่ซับซ้อน ขับเคลื่อนงานวิศวกรรมสำหรับการใช้งานจริง และส่งมอบผลลัพธ์ได้อย่างน่าเชื่อถือ