모델지원엔터프라이즈블로그
500개 이상의 AI 모델 API, 모든 것이 하나의 API로. CometAPI에서
Models API
개발자
빠른 시작문서API 대시보드
리소스
AI 모델블로그엔터프라이즈변경 로그소개
2025 CometAPI. 모든 권리 보유.개인정보 보호정책서비스 이용약관
Home/Models/OpenAI/GPT 5 Codex
O

GPT 5 Codex

입력:$1/M
출력:$8/M
맥락:400K
최대 출력:128K
GPT-5-Codex는 코드 생성과 이해에 특화된 고성능 대규모 언어 모델로, 복잡한 프로그래밍 작업, 코드 추론, 프로덕션 수준 애플리케이션에 대해 강화된 기능을 갖추고 있습니다.
새로운
상업적 사용
Playground
개요
기능
가격
API
버전

GPT-5-Codex란 무엇인가요?

GPT-5-Codex는 복잡한 소프트웨어 엔지니어링 워크플로를 위해 설계된 OpenAI의 GPT-5 계열 특화 변형 모델입니다. 코딩, 대규모 리팩터링, 장기 다단계 에이전트 작업, 그리고 Codex 환경(CLI, IDE 확장, 클라우드) 내에서의 확장된 자율 실행에 최적화되어 있습니다. OpenAI의 Codex 제품에서 기본 모델로 자리매김하고 있으며, Responses API와 Codex 구독을 통해 사용할 수 있습니다.

주요 기능

  • 에이전트 최적화 — 에이전트 루프와 도구 기반 워크플로 내에서 실행되도록 조정되어 있으며(도구/CLI 사용 시 더 나은 일관성), 에이전트성과 도구 사용이 핵심 요소입니다.
  • 코드 품질 중심 — 리팩터링, 리뷰, 장시간 실행되는 개발 작업을 위해 더 깔끔하고, 더 제어 가능한 코드를 생성합니다.
  • IDE 및 제품 통합 — 개발자 제품(예: GitHub Copilot 프리뷰 배포) 및 OpenAI의 Codex SDK/CLI에 통합되어 있습니다.
  • Responses API 전용 — 최상의 결과를 위해 최신 Responses API 패턴(토큰 재사용, 에이전트 루프 지원)을 사용합니다. 기존 Completion 호출은 Codex 작업에서 성능이 떨어질 수 있습니다.

기술적 세부 사항 — 학습 및 아키텍처

  • 기반 계보: GPT-5-Codex는 GPT-5의 파생 모델로, 코딩 작업과 에이전트 동작을 위해 GPT-5 스냅샷을 추가로 튜닝하여 구축되었습니다. 모델 내부 정보(정확한 파라미터 수, 학습 연산량)는 공개적으로 명시되어 있지 않으며, OpenAI는 원시 파라미터 수보다 성능과 튜닝 접근 방식을 공개합니다.
  • 학습 초점: 실제 소프트웨어 엔지니어링 코퍼스, 상호작용형 에이전트 추적, 도구 사용 궤적, 그리고 제어 가능성과 장기 구간 정확성을 개선하기 위한 지시 튜닝에 중점을 둡니다.
  • 도구 및 에이전트 루프 튜닝: Codex 에이전트 루프가 유사한 설정의 일반 GPT-5와 비교했을 때 더 빠르게 실행되고 더 정확한 다단계 결과를 산출하도록 프롬프트 및 도구 정의가 조정되었습니다.

벤치마크 성능

독립 리뷰어 및 집계 사이트의 공개 벤치마킹에 따르면, GPT-5-Codex는 최신 코딩 벤치마크에서 선두권 또는 그에 근접한 성능을 보입니다.

  • SWE-Bench(실제 코딩 작업): 독립 요약 보고서에 따르면 500개 작업 세트에서 ~약 77% 성공률을 기록했습니다(제3자 리뷰 기준). 해당 리뷰에서는 이것이 범용 GPT-5(high) 기준선보다 약간 높다고 언급되었습니다.
  • LiveCodeBench / 기타 코드 벤치마크: 집계 사이트들은 상대적으로 높은 성능을 보고하고 있으며(예: 특정 작업에서 LiveCodeBench 점수가 80점대 중반).

모델 버전 및 가용성

제공 채널: Responses API (모델 id gpt-5-codex)

gpt-5-codex-low/medium/high – 코딩 및 소프트웨어 엔지니어링에 특화:

  • gpt-5-codex-low
  • gpt-5-codex-medium
  • gpt-5-codex-high

/v1/responses 형식 호출 지원

한계

  • 지연 시간 및 연산량: 에이전트 워크플로는 연산 집약적일 수 있으며, 특히 모델이 테스트 스위트를 실행하거나 광범위한 정적 분석을 수행할 때 경량 모델보다 느릴 수 있습니다.
  • 환각 및 과도한 확신: 개선되었음에도 불구하고 GPT-5-Codex는 여전히 API, 파일 경로 또는 테스트 커버리지를 환각할 수 있으므로, 사용자는 생성된 코드와 CI 출력을 반드시 검증해야 합니다.
  • 컨텍스트 길이 및 상태: 이 모델은 더 긴 세션에 맞게 조정되었지만, 실제 컨텍스트/어텐션 한계의 제약을 여전히 받습니다. 매우 큰 코드베이스에는 청킹, 검색 증강 또는 도구 지원 메모리가 필요합니다.
  • 안전 및 보안: 자동화된 코드 변경은 보안 회귀나 라이선스 위반을 초래할 수 있으므로, 사람의 감독과 안전한 CI 게이팅이 필수입니다.

사용 사례

  • 자동 코드 리뷰 — 리뷰어 코멘트를 생성하고, 회귀를 식별하며, 수정 사항을 제안합니다.
  • 기능 개발 및 리팩터링 — 모델이 테스트를 실행하고 CI 검증을 수행하는 대규모 다중 파일 편집.
  • 테스트 생성 및 TDD 자동화 — 단위/통합 테스트를 생성하고 통과할 때까지 반복합니다.
  • 개발자 어시스턴트 및 에이전트 — IDE 플러그인, CI 파이프라인 또는 자율 에이전트에 통합되어 복잡한 엔지니어링 작업을 수행합니다.

GPT-5 Codex API 사용 방법

필수 단계

  • cometapi.com에 로그인합니다. 아직 사용자가 아니라면 먼저 회원가입해 주세요.
  • CometAPI 콘솔에 로그인합니다.
  • 인터페이스의 액세스 자격 증명인 API 키를 발급받습니다. 개인 센터의 API token에서 “Add Token”을 클릭하고 token key sk-xxxxx를 발급받아 제출합니다.

사용 방법

  1. API 요청을 보내기 위해 “gpt-5-codex” 엔드포인트를 선택하고 요청 본문을 설정합니다. 요청 방식과 요청 본문은 당사 웹사이트의 API 문서에서 확인할 수 있습니다. 웹사이트에서는 편의를 위해 Apifox 테스트도 제공합니다.
  2. <YOUR_API_KEY>를 계정의 실제 CometAPI 키로 바꿉니다.
  3. 질문 또는 요청을 content 필드에 입력합니다. 이것이 모델이 응답할 내용입니다.
  4. API 응답을 처리하여 생성된 답변을 가져옵니다.

CometAPI는 원활한 마이그레이션을 위해 완전히 호환되는 REST API를 제공합니다. 자세한 내용: Responses

참고: GPT-5.1 API 및 GPT-5.1-Chat-latest API

GPT 5 Codex의 기능

[모델 이름]의 성능과 사용성을 향상시키도록 설계된 주요 기능을 살펴보세요. 이러한 기능이 프로젝트에 어떻게 도움이 되고 사용자 경험을 개선할 수 있는지 알아보세요.

GPT 5 Codex 가격

[모델명]의 경쟁력 있는 가격을 살펴보세요. 다양한 예산과 사용 요구에 맞게 설계되었습니다. 유연한 요금제로 사용한 만큼만 지불하므로 요구사항이 증가함에 따라 쉽게 확장할 수 있습니다. [모델명]이 비용을 관리 가능한 수준으로 유지하면서 프로젝트를 어떻게 향상시킬 수 있는지 알아보세요.
코멧 가격 (USD / M Tokens)공식 가격 (USD / M Tokens)할인
입력:$1/M
출력:$8/M
입력:$1.25/M
출력:$10/M
-20%

GPT 5 Codex의 샘플 코드 및 API

[모델 이름]의 포괄적인 샘플 코드와 API 리소스에 액세스하여 통합 프로세스를 간소화하세요. 자세한 문서는 단계별 가이드를 제공하여 프로젝트에서 [모델 이름]의 모든 잠재력을 활용할 수 있도록 돕습니다.
POST
/v1/responses
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)
response = client.responses.create(
    model="gpt-5-codex", input="Tell me a three sentence bedtime story about a unicorn."
)

print(response)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY;
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const response = await openai.responses.create({
  model: "gpt-5-codex",
  input: "Tell me a three sentence bedtime story about a unicorn.",
});

console.log(response);

Curl Code Example

curl https://api.cometapi.com/v1/responses \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "gpt-5-codex",
    "input": "Tell me a three sentence bedtime story about a unicorn."
  }'

GPT 5 Codex의 버전

GPT 5 Codex에 여러 스냅샷이 존재하는 이유는 업데이트 후 출력 변동으로 인해 일관성을 유지하기 위해 이전 스냅샷을 보관하거나, 개발자에게 적응 및 마이그레이션을 위한 전환 기간을 제공하거나, 글로벌 또는 지역별 엔드포인트에 따라 다양한 스냅샷을 제공하여 사용자 경험을 최적화하기 위한 것 등이 포함될 수 있습니다. 버전 간 상세한 차이점은 공식 문서를 참고해 주시기 바랍니다.
version
gpt-5-codex-low
gpt-5-codex-medium
gpt-5-codex
gpt-5-codex-high

더 많은 모델

A

Claude Opus 4.6

입력:$4/M
출력:$20/M
Claude Opus 4.6는 Anthropic의 “Opus”급 대규모 언어 모델로, 2026년 2월에 출시되었습니다. 지식 업무와 연구 워크플로를 위한 주력 모델로 자리매김했으며 — 긴 컨텍스트 추론, 다단계 계획, 도구 사용(에이전트형 소프트웨어 워크플로 포함), 그리고 슬라이드와 스프레드시트 자동 생성과 같은 컴퓨터 활용 작업을 개선합니다.
A

Claude Sonnet 4.6

입력:$2.4/M
출력:$12/M
Claude Sonnet 4.6은 지금까지 가장 역량이 뛰어난 Sonnet 모델입니다. 코딩, 컴퓨터 사용, 장문맥 추론, 에이전트 계획, 지식 업무, 디자인 전반에 걸쳐 모델의 역량을 전면 업그레이드한 버전입니다. Sonnet 4.6은 베타 단계의 1M 토큰 컨텍스트 윈도우도 제공합니다.
O

GPT-5.4 nano

입력:$0.16/M
출력:$1/M
GPT-5.4 nano는 속도와 비용이 최우선인 분류, 데이터 추출, 순위화, 하위 에이전트 등의 작업을 위해 설계되었습니다.
O

GPT-5.4 mini

입력:$0.6/M
출력:$3.6/M
GPT-5.4 mini는 대규모 워크로드를 위해 설계된 더 빠르고 더 효율적인 모델에 GPT-5.4의 강점을 접목합니다.
A

Claude Mythos Preview

A

Claude Mythos Preview

곧 출시 예정
입력:$60/M
출력:$240/M
Claude Mythos Preview는 현재까지 우리의 가장 강력한 프런티어 모델이며, 이전 프런티어 모델인 Claude Opus 4.6과 비교해 여러 평가 벤치마크 점수에서 놀라운 도약을 보여줍니다.
X

mimo-v2-pro

입력:$0.8/M
출력:$2.4/M
MiMo-V2-Pro는 Xiaomi의 플래그십 파운데이션 모델로, 총 1T 파라미터와 1M 컨텍스트 길이를 갖추고 있으며, 에이전트 중심 시나리오에 맞춰 깊이 최적화되었습니다. OpenClaw와 같은 범용 에이전트 프레임워크와의 호환성이 뛰어납니다. 표준 PinchBench 및 ClawBench 벤치마크에서 글로벌 최상위권에 속하며, 체감 성능은 Opus 4.6에 근접합니다. MiMo-V2-Pro는 에이전트 시스템의 두뇌로 기능하도록 설계되어 복잡한 워크플로를 오케스트레이션하고, 프로덕션 엔지니어링 작업을 추진하며, 신뢰할 수 있는 결과를 제공합니다.