모델지원엔터프라이즈블로그
500개 이상의 AI 모델 API, 모든 것이 하나의 API로. CometAPI에서
Models API
개발자
빠른 시작문서API 대시보드
리소스
AI 모델블로그엔터프라이즈변경 로그소개
2025 CometAPI. 모든 권리 보유.개인정보 보호정책서비스 이용약관
Home/Models/OpenAI/GPT-5 mini
O

GPT-5 mini

입력:$0.2/M
출력:$1.6/M
맥락:400K
최대 출력:128K
GPT-5 mini는 OpenAI의 GPT-5 제품군에서 비용과 지연 시간에 최적화된 구성원으로, 대규모 프로덕션 사용을 위해 훨씬 낮은 비용으로 GPT-5의 멀티모달 및 지시 따르기 강점을 상당 부분 제공하도록 설계되었습니다. 처리량, 예측 가능한 토큰당 가격, 빠른 응답이 주요 제약인 환경을 대상으로 하면서도 강력한 범용 역량을 제공합니다.
새로운
상업적 사용
Playground
개요
기능
가격
API

기본 정보 및 주요 기능

GPT-5 mini는 OpenAI의 GPT-5 계열 중 비용 및 지연 시간 최적화 모델로, 대규모 프로덕션 환경에서 GPT-5의 멀티모달 및 지시 이행 역량의 상당 부분을 상당히 낮은 비용으로 제공하도록 설계되었습니다. 처리량, 토큰당 가격의 예측 가능성, 빠른 응답이 주요 제약인 환경을 목표로 하면서도 강력한 범용 능력을 제공합니다.

  • Model Name: gpt-5-mini
  • Context Window: 400 000 토큰
  • Max Output Tokens: 128 000
  • Key features: 속도, 처리량, 비용 효율성, 간결한 프롬프트에 대한 결정론적 출력

gpt-5-mini는 어떻게 동작하나요?

최적화된 추론 경로 및 배포. 실용적인 속도 향상은 커널 융합, 더 작은 그래프에 맞춘 텐서 병렬화, 그리고 개발자가 더 깊은 추론을 요청하지 않는 한 더 짧은 내부 “thinking” 루프를 선호하는 추론 런타임에서 비롯됩니다. 이것이 mini가 호출당 계산량과 지연 시간의 예측 가능성을 눈에 띄게 낮추는 이유입니다. 이 트레이드오프는 의도적입니다: 순방향 패스당 계산량 감소 → 비용 및 평균 지연 시간 감소.

개발자 제어. GPT-5 mini는 verbosity(세부/길이 제어)와 reasoning_effort(속도와 깊이의 트레이드오프) 같은 매개변수를 노출하며, 강력한 툴 호출 지원(함수 호출, 병렬 툴 체인, 구조화된 오류 처리)을 제공합니다. 이를 통해 프로덕션 시스템은 정확도와 비용 간의 균형을 정밀하게 조정할 수 있습니다.

벤치마크 성능 — 핵심 수치와 해석

GPT-5 mini는 일반 벤치마크에서 대체로 GPT-5 high 대비 약 85–95% 수준을 유지하면서 지연 시간/가격을 크게 개선합니다. 플랫폼 출시 자료는 GPT-5 high에 대해 매우 높은 절대 점수를 제시합니다(최상위 변형의 AIME ≈ 94.6% 보고), mini는 다소 낮지만 해당 가격대에서는 여전히 업계 선도적입니다.

표준화된 벤치마크와 내부 벤치마크 전반에서 GPT-5 mini는 다음을 달성합니다:

  • 지능 (AIME ’25): 91.1% (GPT-5 high: 94.6%)
  • 멀티모달 (MMMU): 81.6% (GPT-5 high: 84.2%)
  • 코딩 (SWE-bench Verified): 71.0% (GPT-5 high: 74.9%)
  • 지시 이행 (Scale MultiChallenge): 62.3% (vs. 69.6%)
  • 함수 호출 (τ²-bench telecom): 74.1% (vs. 96.7%)
  • 환각률 (LongFact-Concepts): 0.7% (낮을수록 좋음)([OpenAI][4])

이러한 결과는 GPT-5 mini가 성능, 비용, 속도 간의 견고한 트레이드오프를 제공함을 보여줍니다.

제한사항

알려진 제한사항: GPT-5 mini는 전체 GPT-5 대비 깊은 추론 능력이 축소되었고, 모호한 프롬프트에 더 민감하며, 환각의 위험이 남아 있습니다.

  • 깊은 추론 축소: 다단계, 장기적 추론 과제에서는 전체 추론 모델 또는 “thinking” 변형이 mini보다 우수합니다.
  • 환각 및 과신: mini는 매우 작은 모델 대비 환각이 줄었지만 완전히 제거되지는 않았습니다. 고위험(법률, 임상, 컴플라이언스) 업무에서는 출력을 검증해야 합니다.
  • 문맥 민감성: 매우 길고 상호 의존성이 높은 문맥 체인은 더 큰 컨텍스트 윈도우를 가진 전체 GPT-5 변형 또는 “thinking” 모델이 더 적합합니다.
  • 안전 및 정책 한계: 다른 GPT-5 모델에 적용되는 동일한 안전 가드레일 및 속도/사용 제한이 mini에도 적용되며, 민감한 작업에는 인적 감독이 필요합니다.

gpt-5-mini는 무엇을 할 수 있나요?

  • 대량 대화형 에이전트: 낮은 지연, 예측 가능한 비용.
  • 문서 및 멀티모달 요약: 장문맥 요약, 이미지+텍스트 보고서.
  • 대규모 개발자 도구: CI 코드 검사, 자동 리뷰, 경량 코드 생성.
  • 에이전트 오케스트레이션: 깊은 추론이 필요하지 않은 경우 병렬 체인의 툴 호출.

gpt-5-mini API 사용 시작 방법

필수 단계

  • cometapi.com에 로그인하세요. 아직 사용자라면 먼저 등록하세요.
  • 인터페이스의 접근 자격 API 키를 받으세요. 개인 센터의 API 토큰에서 “Add Token”을 클릭하여 토큰 키: sk-xxxxx를 받고 제출하세요.
  • 이 사이트의 URL을 가져옵니다: https://api.cometapi.com/

사용 방법

  1. “gpt-5-mini“ / "gpt-5-mini-2025-08-07" 엔드포인트를 선택하여 API 요청을 보내고 요청 본문을 설정하세요. 요청 메서드와 요청 본문은 당사 웹사이트의 API 문서에서 확인할 수 있습니다. 편의를 위해 당사 웹사이트는 Apifox 테스트도 제공합니다.
  2. 계정의 실제 CometAPI 키로 <YOUR_API_KEY>를 바꾸세요.
  3. 질문이나 요청을 content 필드에 입력하세요—모델이 여기에 응답합니다.
  4. . API 응답을 처리하여 생성된 답변을 얻습니다.

CometAPI는 완전 호환 REST API를 제공합니다—원활한 마이그레이션을 위해서입니다. 주요 세부 정보는 API doc:

  • Core Parameters: prompt, max_tokens_to_sample, temperature, stop_sequences
  • Endpoint: https://api.cometapi.com/v1/chat/completions
  • Model Parameter: “gpt-5-mini“ / "gpt-5-mini-2025-08-07"
  • Authentication: Bearer YOUR_CometAPI_API_KEY
  • Content-Type: application/json .

API 호출 지침: gpt-5-chat-latest는 표준 /v1/chat/completions format를 사용해 호출해야 합니다. 다른 모델(gpt-5, gpt-5-mini, gpt-5-nano 및 해당 날짜 버전)의 경우 the /v1/responses format is recommended. 현재 두 가지 모드가 제공됩니다.

GPT-5 mini의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

GPT-5 mini 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
입력:$0.2/M
출력:$1.6/M
입력:$0.25/M
출력:$2/M
-20%

GPT-5 mini의 샘플 코드 및 API

GPT-5 mini는 OpenAI의 대표 모델인 GPT-5의 경량화 및 비용 최적화 버전으로, 더 낮은 지연 시간과 비용으로 고품질의 추론과 멀티모달 기능을 제공하도록 설계되었습니다.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-mini", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-mini",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-mini",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

더 많은 모델

A

Claude Opus 4.6

입력:$4/M
출력:$20/M
Claude Opus 4.6는 Anthropic의 “Opus”급 대규모 언어 모델로, 2026년 2월에 출시되었습니다. 지식 업무와 연구 워크플로를 위한 주력 모델로 자리매김했으며 — 긴 컨텍스트 추론, 다단계 계획, 도구 사용(에이전트형 소프트웨어 워크플로 포함), 그리고 슬라이드와 스프레드시트 자동 생성과 같은 컴퓨터 활용 작업을 개선합니다.
A

Claude Sonnet 4.6

입력:$2.4/M
출력:$12/M
Claude Sonnet 4.6은 지금까지 가장 역량이 뛰어난 Sonnet 모델입니다. 코딩, 컴퓨터 사용, 장문맥 추론, 에이전트 계획, 지식 업무, 디자인 전반에 걸쳐 모델의 역량을 전면 업그레이드한 버전입니다. Sonnet 4.6은 베타 단계의 1M 토큰 컨텍스트 윈도우도 제공합니다.
O

GPT-5.4 nano

입력:$0.16/M
출력:$1/M
GPT-5.4 nano는 속도와 비용이 최우선인 분류, 데이터 추출, 순위화, 하위 에이전트 등의 작업을 위해 설계되었습니다.
O

GPT-5.4 mini

입력:$0.6/M
출력:$3.6/M
GPT-5.4 mini는 대규모 워크로드를 위해 설계된 더 빠르고 더 효율적인 모델에 GPT-5.4의 강점을 접목합니다.
A

Claude Mythos Preview

A

Claude Mythos Preview

곧 출시 예정
입력:$60/M
출력:$240/M
Claude Mythos Preview는 현재까지 우리의 가장 강력한 프런티어 모델이며, 이전 프런티어 모델인 Claude Opus 4.6과 비교해 여러 평가 벤치마크 점수에서 놀라운 도약을 보여줍니다.
X

mimo-v2-pro

입력:$0.8/M
출력:$2.4/M
MiMo-V2-Pro는 Xiaomi의 플래그십 파운데이션 모델로, 총 1T 파라미터와 1M 컨텍스트 길이를 갖추고 있으며, 에이전트 중심 시나리오에 맞춰 깊이 최적화되었습니다. OpenClaw와 같은 범용 에이전트 프레임워크와의 호환성이 뛰어납니다. 표준 PinchBench 및 ClawBench 벤치마크에서 글로벌 최상위권에 속하며, 체감 성능은 Opus 4.6에 근접합니다. MiMo-V2-Pro는 에이전트 시스템의 두뇌로 기능하도록 설계되어 복잡한 워크플로를 오케스트레이션하고, 프로덕션 엔지니어링 작업을 추진하며, 신뢰할 수 있는 결과를 제공합니다.