Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

입력:$0.2/M
출력:$1.6/M
맥락:400K
최대 출력:128K
GPT-5 mini는 OpenAI의 GPT-5 제품군에서 비용과 지연 시간에 최적화된 구성원으로, 대규모 프로덕션 사용을 위해 훨씬 낮은 비용으로 GPT-5의 멀티모달 및 지시 따르기 강점을 상당 부분 제공하도록 설계되었습니다. 처리량, 예측 가능한 토큰당 가격, 빠른 응답이 주요 제약인 환경을 대상으로 하면서도 강력한 범용 역량을 제공합니다.
새로운
상업적 사용
Playground
개요
기능
가격
API

기본 정보 및 주요 기능

GPT-5 mini는 OpenAI의 비용 및 지연 시간 최적화 버전으로, 대규모 프로덕션 환경에서 GPT-5의 다중모달 및 지시 따르기 강점을 상당히 낮은 비용으로 제공하도록 설계되었습니다. 처리량, 예측 가능한 토큰당 가격, 빠른 응답이 주요 제약인 환경을 대상으로 하면서도 강력한 범용 능력을 제공합니다.

  • 모델명: gpt-5-mini
  • 컨텍스트 윈도우: 400 000 tokens
  • 최대 출력 토큰: 128 000
  • 핵심 기능: 속도, 처리량, 비용 효율성, 간결한 프롬프트에 대한 결정적 출력

gpt-5-mini는 어떻게 작동하나요?

최적화된 추론 경로 및 배포. 실질적인 속도 향상은 커널 융합, 더 작은 그래프에 맞춘 텐서 병렬화, 그리고 개발자가 더 깊은 추론을 요청하지 않는 한 더 짧은 내부 "thinking" 루프를 선호하는 추론 런타임에서 비롯됩니다. 그래서 mini는 호출당 연산량을 눈에 띄게 낮추고, 대량 트래픽에서도 예측 가능한 지연 시간을 달성합니다. 이 트레이드오프는 의도적입니다: 순전파당 연산량 감소 → 비용 절감 및 평균 지연 시간 감소.

개발자 제어. GPT-5 mini는 verbosity(세부/길이 제어)와 reasoning_effort(속도와 깊이의 트레이드오프) 같은 파라미터를 노출하며, 견고한 도구 호출 지원(함수 호출, 병렬 도구 체인, 구조화된 오류 처리)을 제공합니다. 이를 통해 프로덕션 시스템은 정확도와 비용을 정밀하게 조정할 수 있습니다.

벤치마크 성능 — 핵심 수치와 해석

GPT-5 mini는 일반 벤치마크에서 GPT-5 high 대비 약 ~85–95% 범위에 위치하면서 지연/가격을 크게 개선합니다. 플랫폼 출시 자료에 따르면 GPT-5 high는 매우 높은 절대 점수(AIME 상위 변형 보고치 ≈ 94.6%)를 기록하며, mini는 다소 낮지만 해당 가격대에서 여전히 업계 최고 수준을 보입니다.

다양한 표준 및 내부 벤치마크 전반에서, GPT-5 mini는 다음을 달성합니다:

  • 지능 (AIME ’25): 91.1% (vs. GPT-5 high의 94.6%)
  • 멀티모달 (MMMU): 81.6% (vs. GPT-5 high의 84.2%)
  • 코딩 (SWE-bench Verified): 71.0% (vs. GPT-5 high의 74.9%)
  • 지시 따르기 (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • 함수 호출 (τ²-bench telecom): 74.1% (vs. 96.7%)
  • 환각률 (LongFact-Concepts): 0.7% (낮을수록 좋음)([OpenAI][4])

이 결과는 GPT-5 mini가 성능, 비용, 속도 간에 견고한 절충을 이룬다는 점을 보여줍니다.

제한 사항

알려진 제한: GPT-5 mini는 전체 GPT-5 대비 심층 추론 능력이 감소되어 있으며, 모호한 프롬프트에 더 민감하고, 환각 위험이 여전히 존재합니다.

  • 심층 추론 감소: 다단계·장기 추론 작업에서는 전체 추론 모델 또는 “thinking” 변형이 mini보다 우수합니다.
  • 환각 및 과신: mini는 매우 작은 모델 대비 환각을 줄였지만 제거하지는 못했습니다. 고위험(법률, 임상, 컴플라이언스) 환경에서는 출력 검증이 필요합니다.
  • 컨텍스트 민감도: 매우 길고 상호 의존적인 컨텍스트 체인은 더 큰 컨텍스트 윈도우를 가진 전체 GPT-5 변형 또는 “thinking” 모델이 더 적합합니다.
  • 안전 및 정책 한계: 다른 GPT-5 모델에 적용되는 동일한 안전 가드레일과 속도/사용 제한이 mini에도 적용됩니다. 민감한 작업은 인간의 감독이 필요합니다.

gpt-5-mini는 무엇을 할 수 있나요?

  • 대규모 대화형 에이전트: 낮은 지연, 예측 가능한 비용.
  • 문서 및 멀티모달 요약: 장문맥 요약, 이미지+텍스트 리포트.
  • 대규모 개발 도구: CI 코드 검사, 자동 리뷰, 경량 코드 생성.
  • 에이전트 오케스트레이션: 심층 추론이 필요하지 않을 때 병렬 체인과 함께 도구 호출.

gpt-5-mini API를 어떻게 시작하나요?

필수 단계

  • cometapi.com에 로그인하십시오. 아직 사용자라면 먼저 등록하십시오.
  • 인터페이스의 액세스 자격 인증 API 키를 받으십시오. 개인 센터의 API 토큰에서 “Add Token”을 클릭해 토큰 키: sk-xxxxx를 발급받아 제출합니다.
  • 이 사이트의 URL을 확인하십시오: https://api.cometapi.com/

사용 방법

  1. “gpt-5-mini“ / "gpt-5-mini-2025-08-07" 엔드포인트를 선택하여 API 요청을 전송하고 요청 본문을 설정합니다. 요청 방식과 요청 본문은 당사 웹사이트 API 문서에서 확인할 수 있습니다. 편의를 위해 Apifox 테스트도 제공합니다.
  2. 계정의 실제 CometAPI 키로 <YOUR_API_KEY>를 교체하십시오.
  3. 질문이나 요청을 content 필드에 입력합니다—모델은 여기에 응답합니다.
  4. . API 응답을 처리하여 생성된 답변을 얻습니다.

CometAPI는 원활한 마이그레이션을 위한 완전 호환 REST API를 제공합니다. 자세한 내용은 API doc을 참조하십시오:

  • 핵심 파라미터: prompt, max_tokens_to_sample, temperature, stop_sequences
  • 엔드포인트: https://api.cometapi.com/v1/chat/completions
  • 모델 파라미터: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • 인증: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .

API 호출 지침: gpt-5-chat-latest는 표준 /v1/chat/completions format을 사용하여 호출해야 합니다. 다른 모델(gpt-5, gpt-5-mini, gpt-5-nano 및 해당 일자 버전)의 경우, the /v1/responses format 권장됩니다. 현재 두 가지 모드가 제공됩니다.

GPT-5 mini의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

GPT-5 mini 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
입력:$0.2/M
출력:$1.6/M
입력:$0.25/M
출력:$2/M
-20%

GPT-5 mini의 샘플 코드 및 API

GPT-5 mini는 OpenAI의 주력 GPT-5 모델의 경량·비용 최적화 변형으로, 낮은 지연 시간과 비용으로 고품질 추론과 멀티모달 기능을 제공하도록 설계되었습니다.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

더 많은 모델