O

GPT-5.2 Pro

맥락:400,000
입력:$12.00/M
출력:$96.00/M
gpt-5.2-pro는 OpenAI의 GPT-5.2 제품군 가운데 최고 성능의 프로덕션 지향 모델로, Responses API를 통해 제공되며 최대 충실도, 다단계 추론, 광범위한 도구 사용, 그리고 OpenAI가 제공하는 가장 큰 컨텍스트/처리량 한도를 요구하는 워크로드를 위해 설계되었습니다.
O

GPT-5.2 Chat

맥락:128,000
입력:$1.40/M
출력:$11.20/M
gpt-5.2-chat-latest는 OpenAI의 GPT-5.2 제품군의 채팅 최적화 스냅샷(ChatGPT에서는 GPT-5.2 Instant로 브랜딩됨)입니다. 속도, 긴 컨텍스트 처리, 멀티모달 입력, 신뢰할 수 있는 대화 응답의 균형을 필요로 하는 상호작용/채팅 사용 사례를 위한 모델입니다.
O

GPT-5.2

맥락:400,000
입력:$1.40/M
출력:$11.20/M
GPT-5.2는 장문맥 이해, 더 강력한 코딩 및 도구 활용, 그리고 전문적인 “지식 노동” 벤치마크에서 실질적으로 더 높은 성능을 위해 설계된 다양한 구성을 갖춘 모델 제품군(Instant, Thinking, Pro)입니다.
O

GPT-5.1 Chat

맥락:400.0k
입력:$1.00/M
출력:$8.00/M
GPT-5.1 Chat은 범용 채팅, 추론, 글쓰기를 위해 지시 기반으로 미세 조정된 대화형 언어 모델입니다. 앱 내 어시스턴트, 지원 업무 자동화, 워크플로 코파일럿을 위해 멀티턴 대화, 요약, 초안 작성, 지식 베이스 QA, 경량 코드 지원을 제공합니다. 기술적 하이라이트에는 채팅에 최적화된 정렬, 제어 가능하고 구조화된 출력, 그리고 사용 가능한 경우 도구 호출 및 검색 워크플로를 위한 연동 경로가 포함됩니다.
O

GPT-5.1

입력:$1.00/M
출력:$8.00/M
GPT-5.1은 제품 워크플로우 전반에서의 텍스트 생성과 추론에 초점을 맞춘, 지시로 미세조정된 범용 언어 모델입니다. 멀티턴 대화, 구조화된 출력 형식, 초안 작성·리팩터링·설명과 같은 코드 지향 작업을 지원합니다. 일반적인 활용 사례로는 채팅 어시스턴트, 검색 증강형 QA, 데이터 변환, 그리고 지원되는 경우 도구 또는 API를 활용한 에이전트형 자동화가 포함됩니다. 기술적 특징에는 텍스트 중심 모달리티, 지시 따르기, JSON 스타일 출력, 일반적인 오케스트레이션 프레임워크에서의 함수 호출과의 호환성이 포함됩니다.
O

GPT-5 nano

맥락:400K
입력:$0.04/M
출력:$0.32/M
GPT-5 Nano는 OpenAI가 제공하는 인공지능 모델입니다.
O

GPT-5 mini

맥락:400K
입력:$0.20/M
출력:$1.60/M
GPT-5 mini는 OpenAI의 GPT-5 제품군에서 비용과 지연 시간에 최적화된 구성원으로, 대규모 프로덕션 사용을 위해 훨씬 낮은 비용으로 GPT-5의 멀티모달 및 지시 따르기 강점을 상당 부분 제공하도록 설계되었습니다. 처리량, 예측 가능한 토큰당 가격, 빠른 응답이 주요 제약인 환경을 대상으로 하면서도 강력한 범용 역량을 제공합니다.
O

GPT 5 Chat

맥락:400K
입력:$1.00/M
출력:$8.00/M
GPT-5 Chat (latest)은 OpenAI가 제공하는 인공지능 모델입니다.
O

GPT-5

맥락:400K
입력:$1.00/M
출력:$8.00/M
GPT-5는 현재까지 OpenAI가 선보인 가장 강력한 코딩 모델입니다. 복잡한 프론트엔드 생성과 대규모 코드베이스 디버깅에서 큰 향상을 보여줍니다. 직관적이고 심미적으로 뛰어난 결과물로 아이디어를 현실로 구현하며, 한 번의 프롬프트만으로 뛰어난 미적 감각을 바탕으로 아름답고 반응형인 웹사이트, 애플리케이션, 게임을 만들어낼 수 있습니다. 초기 테스터들은 간격, 타이포그래피, 여백과 같은 요소에 대한 더 깊은 이해가 반영된 디자인 선택도 지적했습니다.
O

GPT-4.1 nano

맥락:1.0M
입력:$0.08/M
출력:$0.32/M
GPT-4.1 nano는 OpenAI에서 제공하는 인공지능 모델입니다. gpt-4.1-nano: 더 큰 컨텍스트 윈도우를 갖추었으며—최대 1 million 컨텍스트 토큰을 지원하고 향상된 긴 컨텍스트 이해를 통해 그 컨텍스트를 더 잘 활용할 수 있습니다. 지식 컷오프 시점은 2024년 6월로 업데이트되었습니다. 이 모델은 최대 1,047,576 토큰의 컨텍스트 길이를 지원합니다.
O

GPT-4.1

맥락:1.0M
입력:$1.60/M
출력:$6.40/M
GPT-4.1는 OpenAI가 제공하는 인공지능 모델입니다. gpt-4.1-nano: 더 큰 컨텍스트 윈도우를 제공하며—최대 1 million 컨텍스트 토큰을 지원하고 향상된 긴 컨텍스트 이해를 통해 해당 컨텍스트를 더 잘 활용할 수 있습니다. 지식 컷오프 시점은 2024년 6월로 업데이트되었습니다. 이 모델은 최대 1,047,576 토큰의 컨텍스트 길이를 지원합니다.
O

GPT-4o mini

입력:$0.12/M
출력:$0.48/M
GPT-4o mini는 OpenAI가 제공하는 인공지능 모델입니다.
O

Whisper-1

입력:$24.00/M
출력:$24.00/M
음성을 텍스트로 변환, 번역 생성
O

TTS

입력:$12.00/M
출력:$12.00/M
OpenAI 텍스트 음성 변환
O

Sora 2 Pro

초당:$0.24
Sora 2 Pro는 동기화된 오디오가 포함된 동영상을 생성할 수 있는, 당사에서 가장 진보되고 강력한 미디어 생성 모델입니다. 자연어 또는 이미지로부터 정교하고 역동적인 동영상 클립을 생성할 수 있습니다.
O

Sora 2

초당:$0.08
초강력 비디오 생성 모델, 효과음 지원, 채팅 형식 지원.
O

GPT Image 1 mini

입력:$2.00/M
출력:$6.40/M
GPT Image 1의 비용 최적화 버전입니다. 텍스트와 이미지 입력을 모두 지원하고 이미지 출력을 생성하는 네이티브 멀티모달 언어 모델입니다.
O

GPT 4.1 mini

맥락:1.0M
입력:$0.32/M
출력:$1.28/M
GPT-4.1 mini는 OpenAI가 제공하는 인공지능 모델입니다. gpt-4.1-mini: 소형 모델 성능에서 획기적인 도약을 이뤘으며, 여러 벤치마크에서 GPT-4o를 능가합니다. 지능 평가에서 GPT-4o에 필적하거나 이를 상회하면서, 지연 시간을 거의 절반으로 줄이고 비용을 83% 절감합니다. 이 모델은 최대 1,047,576 토큰의 컨텍스트 길이를 지원합니다.
O

o4-mini-deep-research

맥락:200K
입력:$1.60/M
출력:$6.40/M
O4-Mini-Deep-Research는 경량 o4-mini 백본과 고급 Deep Research 프레임워크를 결합한 OpenAI의 최신 에이전트형 추론 모델입니다. 빠르고 비용 효율적인 심층 정보 종합을 제공하도록 설계되어, 개발자와 연구자가 단일 API 호출만으로 자동화된 웹 검색, 데이터 분석, 그리고 연쇄적 사고 추론을 수행할 수 있습니다.
O

o4-mini

입력:$0.88/M
출력:$3.52/M
O4-mini는 OpenAI에서 제공하는 인공지능 모델입니다.
O

O3 Pro

맥락:200K
입력:$16.00/M
출력:$64.00/M
OpenAI o3‑pro는 o3 추론 모델의 “프로” 버전으로, 더 오래 사고하고 가장 신뢰할 수 있는 응답을 제공하도록 설계되었으며, 비공개 사고 연쇄 강화학습을 활용해 과학, 프로그래밍, 비즈니스 등 다양한 분야에서 최첨단 벤치마크를 새롭게 세우는 한편—동시에 API 내에서 웹 검색, 파일 분석, Python 실행, 시각적 추론 등의 도구를 자율적으로 통합합니다.
O

o3-mini

입력:$0.88/M
출력:$3.52/M
O3-mini는 OpenAI가 제공하는 인공지능 모델입니다.
O

o3-deep-research

입력:$8.00/M
출력:$32.00/M
O3 모델을 기반으로 한 네트워크형 심층 연구 에이전트로, 다단계 추론 및 인용 분석 보고서를 지원.
O

o3

입력:$1.60/M
출력:$6.40/M
O3는 OpenAI가 제공하는 인공지능 모델입니다.
O

GPT-4o mini Audio

입력:$0.12/M
출력:$0.48/M
GPT-4o mini Audio는 음성 및 텍스트 상호작용을 위한 멀티모달 모델입니다. 음성 인식, 번역, 텍스트 음성 변환을 수행하고 지시를 따르며, 스트리밍 응답과 함께 구조화된 작업을 위해 도구를 호출할 수 있습니다. 일반적인 사용 사례로는 실시간 음성 비서, 라이브 자막 및 번역, 통화 요약, 음성 제어 애플리케이션이 포함됩니다. 기술적 특징으로는 오디오 입력과 출력, 스트리밍 응답, 함수 호출, 구조화된 JSON 출력이 있습니다.
O

codex-mini-latest

입력:$1.20/M
출력:$4.80/M
Codex Mini는 OpenAI가 제공하는 인공지능 모델입니다. 코드 생성 분야에서 OpenAI가 이룬 최신 성과로, Codex 명령줄 인터페이스(CLI)에 맞춰 최적화된 경량 모델입니다. o4-mini를 미세 조정한 버전으로서, 이 모델은 기본 모델의 높은 효율성과 응답 속도를 계승하면서 코드 이해와 생성에 특별히 최적화되었습니다.
O

GPT-4o mini TTS

입력:$9.60/M
출력:$38.40/M
GPT-4o mini TTS는 사용자 대상 애플리케이션에서 자연스럽고 지연이 낮은 음성 생성을 위해 설계된 신경망 기반 텍스트-음성 변환 모델입니다. 선택 가능한 보이스, 다양한 포맷 출력, 반응성이 높은 경험을 위한 스트리밍 합성을 통해 텍스트를 자연스러운 음성으로 변환합니다. 대표적인 사용처로는 음성 비서, IVR 및 컨택트 플로우, 제품 낭독, 미디어 내레이션 등이 있습니다. 기술적 하이라이트로는 API 기반 스트리밍과 MP3 및 WAV 등의 일반적인 오디오 포맷으로의 내보내기가 포함됩니다.
O

GPT-4o Realtime

입력:$60.00/M
출력:$240.00/M
Realtime API는 개발자가 음성-음성 기능을 포함한 저지연 멀티모달 경험을 구현할 수 있도록 합니다. Realtime API로 처리되는 텍스트와 오디오의 요금은 별도로 책정됩니다. 이 모델은 최대 128,000 토큰의 컨텍스트 길이를 지원합니다.
O

GPT-4o Search

입력:$60.00/M
출력:$60.00/M
GPT-4o Search는 검색 증강 추론과 근거에 기반한 최신 답변을 위해 구성된 GPT-4o 기반 멀티모달 모델입니다. 이 모델은 지침을 따르며 웹 검색 도구를 사용해 외부 정보를 검색, 평가 및 종합하고, 가능한 경우 출처 정보를 함께 제공합니다. 일반적인 활용 사례로는 연구 보조, 사실 확인, 뉴스 및 트렌드 모니터링, 시간에 민감한 질의에 대한 응답이 포함됩니다. 기술적 하이라이트로는 브라우징 및 검색을 위한 도구/함수 호출, 긴 컨텍스트 처리, 인용과 링크에 적합한 구조화된 출력이 있습니다.
O

ChatGPT-4o

입력:$4.00/M
출력:$12.00/M
텍스트, 이미지, 오디오 및 비디오 입력/출력을 지원하는 멀티모달 대규모 언어 모델(LLM)인 최신 버전의 GPT-4o를 기반으로.
O

tts-1-hd-1106

입력:$24.00/M
출력:$24.00/M
O

tts-1-hd

입력:$24.00/M
출력:$24.00/M
O

tts-1-1106

입력:$12.00/M
출력:$12.00/M
O

tts-1

입력:$12.00/M
출력:$12.00/M
O

text-embedding-ada-002

입력:$0.08/M
출력:$0.08/M
An Ada-based text embedding model optimized for various NLP tasks.
O

text-embedding-3-small

입력:$0.02/M
출력:$0.02/M
A small text embedding model for efficient processing.
O

text-embedding-3-large

입력:$0.10/M
출력:$0.10/M
A large text embedding model for a wide range of natural language processing tasks.
O

omni-moderation-latest

요청당:$0.00
O

omni-moderation-2024-09-26

요청당:$0.00
O

o1-pro-all

입력:$120.00/M
출력:$480.00/M
O

o1-pro-2025-03-19

입력:$120.00/M
출력:$480.00/M
O

o1-pro

입력:$120.00/M
출력:$480.00/M
O1-pro is an artificial intelligence model provided by OpenAI.
O

o1-preview-all

요청당:$0.16
O

o1-preview-2024-09-12

입력:$12.00/M
출력:$48.00/M
O

o1-preview

입력:$12.00/M
출력:$48.00/M
O1-preview is an artificial intelligence model provided by OpenAI.
O

o1-mini-all

요청당:$0.08
O

o1-mini-2024-09-12

입력:$0.88/M
출력:$3.52/M
O

o1-mini

입력:$0.88/M
출력:$3.52/M
O1-mini is an artificial intelligence model provided by OpenAI.
O

o1-all

요청당:$0.16
O

o1-2024-12-17

입력:$12.00/M
출력:$48.00/M
O

o1

입력:$12.00/M
출력:$48.00/M
O1 is an artificial intelligence model provided by OpenAI.
O

gpt-realtime-mini

입력:$0.48/M
출력:$0.96/M
실시간 GPT의 경제적인 버전—WebRTC, WebSocket 또는 SIP 연결을 통해 오디오 및 텍스트 입력에 실시간으로 응답할 수 있음.
C

gpt-oss-20b

입력:$0.08/M
출력:$0.32/M
gpt-oss-20b is an artificial intelligence model provided by cloudflare-workers-ai.
C

gpt-oss-120b

입력:$0.16/M
출력:$0.80/M
gpt-oss-120b is an artificial intelligence model provided by cloudflare-workers-ai.
O

gpt-image-1

입력:$8.00/M
출력:$32.00/M
An advanced AI model for generating images from text descriptions.
O

gpt-4o-all

입력:$2.00/M
출력:$8.00/M
<div>GPT-4o is OpenAI's most advanced Multimodal model, faster and cheaper than GPT-4 Turbo, with stronger visual capabilities. This model has a 128K context and a knowledge cutoff of October 2023. Models in the 1106 series and above support tool_calls and function_call.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision-preview

입력:$2.00/M
출력:$8.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-vision

입력:$8.00/M
출력:$24.00/M
This model supports a maximum context length of 128,000 tokens.
O

gpt-4-v

요청당:$0.04
O

gpt-4-turbo-preview

입력:$8.00/M
출력:$24.00/M
<div>gpt-4-turbo-preview Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo-2024-04-09

입력:$8.00/M
출력:$24.00/M
<div>gpt-4-turbo-2024-04-09 Upgraded version, stronger code generation capabilities, reduced model "laziness", fixed non-English UTF-8 generation issues.</div> This model supports a maximum context length of 128,000 tokens.
O

gpt-4-turbo

입력:$8.00/M
출력:$24.00/M
GPT-4 Turbo is an artificial intelligence model provided by OpenAI.
O

gpt-4-search

요청당:$0.04
O

gpt-4-gizmo-*

입력:$24.00/M
출력:$48.00/M
O

gpt-4-gizmo

입력:$24.00/M
출력:$48.00/M
O

gpt-4-dalle

요청당:$0.04
O

gpt-4-all

입력:$24.00/M
출력:$48.00/M
A

gpt-4-32k

입력:$48.00/M
출력:$96.00/M
GPT-4 32K is an artificial intelligence model provided by Azure.
O

gpt-4-1106-preview

입력:$8.00/M
출력:$16.00/M
O

gpt-4-0613

입력:$24.00/M
출력:$48.00/M
O

gpt-4-0314

입력:$24.00/M
출력:$48.00/M
O

gpt-4-0125-preview

입력:$8.00/M
출력:$16.00/M
O

gpt-4

입력:$24.00/M
출력:$48.00/M
GPT-4 is an artificial intelligence model provided by OpenAI.
O

gpt-3.5-turbo-0125

입력:$0.40/M
출력:$1.20/M
GPT-3.5 Turbo 0125 is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

gpt-3.5-turbo

입력:$0.40/M
출력:$1.20/M
GPT-3.5 Turbo is an artificial intelligence model provided by OpenAI. A pure official high-speed GPT-3.5 series, supporting tools_call. This model supports a maximum context length of 4096 tokens.
O

dall-e-3

요청당:$0.02
New version of DALL-E for image generation.
O

dall-e-2

입력:$8.00/M
출력:$32.00/M
An AI model that generates images from text descriptions.
C

Claude Sonnet 4.5

맥락:200K
입력:$2.40/M
출력:$12.00/M
Claude Sonnet 4.5는 컴퓨터 응용 성능에서 큰 도약을 이뤘습니다. 실제 컴퓨터 작업을 대상으로 AI 모델을 테스트하는 벤치마크 플랫폼인 OSWorld에서 Sonnet 4.5는 61.4%로 정상에 올랐으며, 불과 4개월 전에는 Sonnet 4가 42.2%로 선두를 달렸습니다. 당사의 Claude for Chrome 확장 프로그램은 이러한 업그레이드된 기능을 실제 사용에 적용합니다.
A

Claude Opus 4.5

맥락:200K
입력:$4.00/M
출력:$20.00/M
Claude Opus 4.5는 Anthropic이 개발한, 복잡한 추론, 코딩 및 다중 턴 대화를 위해 설계된 지시로 미세 조정된 대규모 언어 모델입니다. 확장된 컨텍스트 처리, 도구/함수 호출, 구조화된 출력, 검색 증강형 워크플로와의 통합을 지원합니다. 일반적인 활용 사례로는 분석형 어시스턴트, 코드 생성 및 검토, 지식 베이스 QA, 정책에 부합하는 응답을 갖춘 콘텐츠 초안 작성 등이 있습니다. 기술적 하이라이트로는 지시 따르기, RAG 친화적 동작, Claude 배포 환경에서 제공되는 안전성 제어가 포함됩니다.
C

Claude Opus 4.1

맥락:200K
입력:$12.00/M
출력:$60.00/M
Claude Opus 4.1은 Anthropic의 대표 모델의 업데이트된 버전으로, 코딩, 추론, 에이전트 작업에서 향상된 성능을 제공합니다. SWE-bench Verified에서 74.5%를 기록하여, 다중 파일 코드 리팩터링, 디버깅 정확도, 세밀한 추론에서 상당한 개선을 보여줍니다. 이 모델은 최대 64K 토큰까지 확장된 추론을 지원하며, 연구, 데이터 분석, 도구 지원 추론이 포함된 작업에 최적화되어 있습니다.
C

Claude 4 Sonnet

맥락:200K
입력:$2.40/M
출력:$12.00/M
가장 빠르고 비용 효율적인 모델, 200K 컨텍스트 윈도우
C

Claude Opus 4

맥락:200K
입력:$12.00/M
출력:$60.00/M
지능, 비용, 속도 간의 최적 균형. 200K 컨텍스트 윈도우.
C

Claude 3.7 Sonnet

입력:$2.40/M
출력:$12.00/M
R1에 맞선 Claude의 큰 움직임, 강력한 3.7이 공식적으로 온라인에 공개되었습니다. 이 모델은 최대 200,000 토큰의 컨텍스트 길이를 지원합니다. 추론 지원 포함.
C

Claude Haiku 4.5

맥락:200K
입력:$0.80/M
출력:$4.00/M
가장 빠르고 비용 효율적인 모델.
C

Claude 3.5 Haiku

입력:$0.80/M
출력:$4.00/M
이러한 별칭은 해당 모델의 최신 스냅샷을 자동으로 가리킵니다. 실험용으로는 유용하지만, 프로덕션 애플리케이션에서는 일관된 동작을 보장하기 위해 특정 모델 버전(예: claude-3-5-sonnet-20241022) 사용을 권장합니다. 새 모델 스냅샷을 릴리스하면 -latest 별칭을 새 버전을 가리키도록 이전합니다(일반적으로 새 버전 릴리스 후 1주일 이내). -latest 별칭에는 참조하는 기본 모델 버전과 동일한 요청 한도와 요금이 적용됩니다. 이 모델은 최대 200,000 토큰의 컨텍스트 길이를 지원합니다.
C

Claude 3 Haiku

입력:$0.20/M
출력:$1.00/M
Claude Haiku 3은 Anthropic에서 제공하는 인공지능 모델입니다.
G

Veo 3.1 Pro

요청당:$2.00
Veo 3.1-Pro는 Google의 Veo 3.1 제품군의 고급 기능 접근/구성을 의미합니다 — 숏폼, 오디오 지원 비디오 모델의 세대로서 더 풍부한 네이티브 오디오, 향상된 서사/편집 제어 및 장면 확장 도구를 추가합니다.
G

Veo 3.1

요청당:$0.40
Veo 3.1은 Google의 Veo 텍스트·이미지→비디오 제품군에 대한 점진적이지만 중요한 업데이트로, 더 풍부한 네이티브 오디오, 더 길고 더 세밀하게 제어 가능한 비디오 출력, 그리고 더 정교한 편집 및 장면 수준 제어를 추가합니다.
G

Veo 3 Pro

요청당:$2.00
Veo 3 pro는 프로덕션급 Veo 3 비디오 모델 경험(고충실도, 네이티브 오디오 및 확장된 툴링)을 의미합니다.
G

Veo 3 Fast

요청당:$0.40
Veo 3 Fast는 Google의 생성형 비디오 모델인 Veo 제품군(Veo 3 / Veo 3.1 등)의 속도 최적화 변형입니다. 처리량과 초당 비용을 우선시하면서 자체적으로 생성된 오디오를 포함한 짧고 고품질 비디오 클립을 생성하도록 설계되었으며—최상급 시각적 충실도 및/또는 더 긴 단일 샷 지속 시간의 일부를 포기하는 대신 훨씬 더 빠른 생성 속도와 더 낮은 가격을 제공합니다. Veo 3 Fast란 무엇인가 — 간단한 소개
G

Veo 3

요청당:$0.40
Google DeepMind의 Veo 3는 텍스트-투-비디오 생성의 최첨단을 대표하며, 대규모 생성형 AI 모델이 고충실도 비디오를 대사, 효과음, 환경음 등 동반 오디오와 끊김 없이 동기화한 것은 이번이 처음이다.
G

Gemini 2.5 Pro

맥락:1M
입력:$1.00/M
출력:$8.00/M
Gemini 2.5 Pro는 Google이 제공하는 인공지능 모델입니다. 네이티브 멀티모달 처리 기능과 최대 1 million 토큰의 초장문 컨텍스트 윈도우를 갖추고 있어, 복잡하고 긴 시퀀스 작업에 전례 없는 강력한 지원을 제공합니다. Google의 데이터에 따르면, Gemini 2.5 Pro는 복잡한 작업에서 특히 뛰어난 성능을 보입니다. 이 모델은 최대 1,048,576 토큰의 컨텍스트 길이를 지원합니다.
G

Gemini 2.5 Flash

맥락:1M
입력:$0.24/M
출력:$2.00/M
Gemini 2.5 Flash는 Google이 개발한 AI 모델로, 특히 향상된 추론 기능이 필요한 애플리케이션을 위해 개발자에게 빠르고 비용 효율적인 솔루션을 제공하도록 설계되었습니다. Gemini 2.5 Flash 프리뷰 발표에 따르면, 이 모델은 2025년 4월 17일 프리뷰로 공개되었으며, 멀티모달 입력을 지원하고 1 million 토큰의 컨텍스트 윈도우를 갖습니다. 이 모델은 최대 컨텍스트 길이 65,536 토큰을 지원합니다.
G

Nano Banana

요청당:$0.03
Google의 가장 진보한 이미지 생성 및 편집 모델인 Gemini 2.5 Flash Image(일명 nano-banana). 이번 업데이트를 통해 여러 이미지를 하나로 합성하고, 풍부한 스토리를 위한 캐릭터 일관성을 유지하며, 자연어로 특정 대상에 대한 변환을 수행하고, Gemini의 세계 지식을 활용해 이미지를 생성하고 편집할 수 있습니다.
G

Gemini 2.5 Flash Lite

맥락:1M
입력:$0.08/M
출력:$0.32/M
높은 비용 효율성과 높은 처리량을 위해 최적화된 Gemini 2.5 Flash 모델입니다. 대규모 사용을 위해 설계된 가장 작고 가장 비용 효율적인 모델입니다.
G

Gemini 2.5 Pro DeepSearch

입력:$8.00/M
출력:$64.00/M
강화된 심층 검색 및 정보 검색 기능을 갖춘 심층 검색 모델로, 복잡한 지식 통합 및 분석에 이상적인 선택입니다.
G

Gemini 2.5 Pro (All)

입력:$2.00/M
출력:$16.00/M
Gemini 2.5 Pro (All)은 텍스트와 미디어 이해를 위한 멀티모달 모델로, 범용 어시스턴트와 근거 기반 추론을 위해 설계되었습니다. 신뢰할 수 있는 도구/함수 호출과 RAG 친화적 동작을 바탕으로 지시 따르기, 분석적 글쓰기, 코드 이해, 이미지/오디오 이해를 처리합니다. 일반적인 사용 사례에는 엔터프라이즈 챗 에이전트, 문서 및 UI 분석, 시각적 질의응답, 워크플로 자동화가 포함됩니다. 기술적 하이라이트로는 통합된 이미지‑텍스트‑오디오 입력, 긴 컨텍스트 지원, 구조화된 JSON 출력, 스트리밍 응답, 시스템 지시문 제어가 있습니다.
G

Gemini 2.5 Flash DeepSearch

입력:$4.80/M
출력:$38.40/M
심층 검색 모델로서, 강화된 심층 검색 및 정보 검색 기능을 갖추어 복잡한 지식 통합 및 분석에 이상적인 선택입니다.
G

Gemini 2.5 Flash (All)

입력:$0.24/M
출력:$2.00/M
Gemini 2.5 Flash는 Google이 개발한 AI 모델로, 특히 강화된 추론 기능이 필요한 애플리케이션을 위해 개발자에게 빠르고 비용 효율적인 솔루션을 제공하도록 설계되었습니다. Gemini 2.5 Flash 프리뷰 발표에 따르면, 이 모델은 2025년 4월 17일 프리뷰로 공개되었고, 멀티모달 입력을 지원하며, 컨텍스트 윈도우는 1 million 토큰입니다. 이 모델은 최대 65,536 토큰의 컨텍스트 길이를 지원합니다.
G

Gemini 2.0 Flash Lite

입력:$0.08/M
출력:$0.32/M
Gemini 2.0 Flash Lite는 저지연·고처리량 추론에 최적화된 컴팩트한 지시 기반 미세조정 멀티모달 모델입니다. 텍스트 및 이미지 이해, 요약, 분류, 경량 추론을 처리하며, 도구/함수 호출과 구조화된 출력 제어를 지원합니다. 대표적인 활용 사례로는 대화형 에이전트、신속한 콘텐츠 초안 작성、문서 또는 스크린샷에서의 메타데이터 추출、그리고 검색 증강 워크플로우가 있습니다. 기술적 특징으로는 텍스트-이미지 입력、스트리밍 생성、도구/함수 호출、그리고 지연 시간에 민감한 서비스에 적합한 배포 옵션을 들 수 있습니다.
G

Gemini 2.0 Flash

입력:$0.08/M
출력:$0.32/M
Gemini 2.0 Flash는 Google-Vertex에서 제공하는 인공지능 모델입니다.
G

Nano Banana Pro

요청당:$0.19
Nano Banana Pro는 텍스트 중심 워크플로에서 범용 지원을 제공하는 AI 모델이다. 구조를 제어할 수 있는 형태로 콘텐츠를 생성·변환·분석하기 위한 지시문 기반 프롬프팅에 적합하다. 주요 활용 사례로는 채팅 어시스턴트, 문서 요약, 지식 질의응답, 워크플로 자동화가 있다. 공개된 기술 세부 정보는 제한적이며; 통합 방식은 구조화된 출력, 검색 증강 프롬프트, 도구 또는 함수 호출 등 일반적인 AI 어시스턴트 패턴과 부합한다.
G

Gemini 3 Pro Preview

맥락:200.0k
입력:$1.60/M
출력:$9.60/M
Gemini 3 Pro Preview는 Gemini 제품군의 범용 모델로, 평가와 프로토타이핑을 위해 프리뷰로 제공됩니다. 이 모델은 지시 사항 준수, 다중 턴 추론, 코드 및 데이터 작업을 지원하며, 워크플로 자동화를 위해 구조화된 출력과 도구/함수 호출을 제공합니다. 일반적인 사용 사례에는 챗 어시스턴트、요약 및 재작성、검색 증강형 QA、데이터 추출、그리고 앱과 서비스 전반에서의 경량 코딩 지원이 포함됩니다. 기술적 하이라이트로는 API 기반 배포、스트리밍 응답、안전성 제어、통합 준비가 있으며、멀티모달 기능은 프리뷰 구성에 따라 달라집니다。
X

Grok Code Fast 1

맥락:256K
입력:$0.16/M
출력:$1.20/M
Grok Code Fast 1은 xAI가 출시한 AI 프로그래밍 모델로, 빠르고 효율적인 기본 코딩 작업을 위해 설계되었습니다. 이 모델은 초당 92 토큰을 처리할 수 있고, 256k 컨텍스트 윈도우를 갖추고 있으며, 빠른 프로토타이핑, 코드 디버깅, 간단한 시각 요소 생성에 적합합니다.
X

Grok 4 Fast

맥락:2M
입력:$0.16/M
출력:$0.40/M
Grok 4 Fast는 xAI가 출시한 새로운 인공지능 모델로, 추론 및 비추론 기능을 단일 아키텍처로 통합한 모델입니다. 이 모델은 2 million 토큰 컨텍스트 윈도우를 갖추고 있으며, 검색 및 코딩과 같은 고처리량 애플리케이션을 위해 설계되었습니다. 이 모델은 두 가지 버전을 제공합니다: Grok-4-Fast-Reasoning 및 Grok-4-Fast-Non-Reasoning으로, 서로 다른 작업에 최적화되어 있습니다.
X

Grok 4.1 Fast

맥락:2M
입력:$0.16/M
출력:$0.40/M
Grok 4.1 Fast는 xAI의 프로덕션 지향 대규모 모델로, 에이전트 기반 툴 호출, 긴 컨텍스트 워크플로, 저지연 추론에 최적화되어 있습니다. 이는 검색, 코드 실행, 서비스 호출을 수행하고 매우 큰 컨텍스트(최대 2 million 토큰)에 대해 추론하는 자율 에이전트를 실행하도록 설계된 멀티모달의 두 가지 변형 제품군입니다.
X

Grok 4

맥락:256K
입력:$2.40/M
출력:$12.00/M
Grok 4는 XAI가 제공하는 인공지능 모델입니다. 현재는 텍스트 모달리티를 지원하며, 비전, 이미지 생성 등 기타 기능은 곧 제공될 예정입니다. 매우 강력한 기술 사양과 생태계 역량을 갖추고 있습니다: 컨텍스트 윈도우: 최대 256,000 토큰의 컨텍스트 처리를 지원하여 주류 모델을 선도합니다.
X

Grok 3 Reasoner

입력:$2.40/M
출력:$12.00/M
Grok-3 추론 모델, 연쇄 추론 포함, Elon Musk의 R1 경쟁 모델. 이 모델은 최대 100,000 토큰의 컨텍스트 길이를 지원합니다.
X

Grok 3 Mini

입력:$0.24/M
출력:$0.40/M
응답하기 전에 생각하는 가벼운 모델입니다. 빠르고 똑똑하며, 깊은 도메인 지식이 필요하지 않은 논리 기반 작업에 이상적입니다. 원시 사고 추적을 열람할 수 있습니다. 이 모델은 최대 100,000 토큰의 컨텍스트 길이를 지원합니다.
X

Grok 3 DeepSearch

입력:$2.40/M
출력:$12.00/M
Grok-3 딥 네트워크 기반 검색 모델. 이 모델은 최대 100,000 토큰의 컨텍스트 길이를 지원합니다.
X

Grok 3 DeeperSearch

입력:$2.40/M
출력:$12.00/M
Grok-3 딥 네트워크 기반 검색 모델로, grok-3-deepsearch보다 우수합니다. 이 모델은 최대 100,000 토큰의 컨텍스트 길이를 지원합니다.
X

Grok 3

입력:$2.40/M
출력:$12.00/M
Grok-3는 2025년 2월 17일 엘론 머스크의 xAI가 공개한 최신 인공지능 챗봇 모델입니다. 이 모델의 훈련 클러스터는 200,000카드 수준에 도달했으며 수학, 과학, 프로그래밍 등의 작업에서 뛰어난 성능을 보이고, 머스크는 이를 "지구에서 가장 똑똑한 AI"라고 칭했습니다. 이 모델은 최대 100,000 토큰의 컨텍스트 길이를 지원합니다.
X

Grok 2

입력:$0.80/M
출력:$0.80/M
Grok 2는 XAI에서 제공하는 인공지능 모델입니다.
D

DeepSeek-V3.2

맥락:128K
입력:$0.22/M
출력:$0.35/M
DeepSeek v3.2는 DeepSeek V3 제품군의 최신 프로덕션 릴리스입니다: 긴 컨텍스트 이해, 견고한 에이전트/도구 활용, 고급 추론, 코딩과 수학을 위해 설계된 대규모 ‘추론 우선’ 오픈 웨이트 언어 모델 제품군.
D

DeepSeek-V3

입력:$0.22/M
출력:$0.88/M
가장 인기 있고 비용 효율적인 DeepSeek-V3 모델. 671B 풀스케일 버전. 이 모델은 최대 64,000 토큰의 컨텍스트 길이를 지원합니다.
D

DeepSeek-V3.1

입력:$0.44/M
출력:$1.32/M
DeepSeek의 V-시리즈 업그레이드인 DeepSeek V3.1은 고처리량·저비용의 범용 지능과 에이전트 기반 도구 사용을 목표로 하는 ‘사고/비사고’ 하이브리드 대규모 언어 모델이다. OpenAI 스타일 API 호환성을 유지하고 더 지능적인 도구 호출을 추가했으며—회사 측에 따르면—더 빠른 생성과 향상된 에이전트 신뢰성을 제공한다.
D

DeepSeek-R1T2-Chimera

입력:$0.24/M
출력:$0.24/M
DeepSeek-AI의 R1-0528, R1, V3-0324를 병합해 만든 671B 파라미터 Mixture of Experts 텍스트 생성 모델로, 최대 60k tokens의 컨텍스트를 지원합니다.
D

DeepSeek-Reasoner

입력:$0.44/M
출력:$1.75/M
DeepSeek-Reasoner는 DeepSeek의 추론 우선(reasoning-first) LLM 제품군 및 API 엔드포인트로서, (1) 호출자에게 내부 연쇄 사고(CoT) 추론을 노출하고, (2) 다단계 계획, 수학, 코딩, 에이전트/도구 사용에 최적化된 'thinking' 모드로 동작하도록 설계되었습니다.
D

DeepSeek-OCR

요청당:$0.04
DeepSeek-OCR는 이미지와 문서에서 텍스트를 추출하기 위한 광학 문자 인식(OCR) 모델입니다. 스캔한 페이지, 사진, UI 스크린샷을 처리하여 줄바꿈과 같은 레이아웃 단서가 포함된 전사본을 생성합니다. 일반적인 활용 사례로는 문서 디지털화, 송장 및 영수증 수집, 검색 색인화, RPA 파이프라인 구현 등이 있습니다. 기술적 하이라이트에는 이미지-텍스트 변환 처리, 스캔 및 촬영된 콘텐츠 지원, 후속 파싱을 위한 구조화된 텍스트 출력이 포함됩니다.
D

DeepSeek-Chat

맥락:64K
입력:$0.22/M
출력:$0.88/M
가장 인기 있고 비용 효율적인 DeepSeek-V3 모델. 671B 풀 스펙 버전. 이 모델은 최대 컨텍스트 길이 64,000 토큰을 지원합니다.
Q

Qwen Image

요청당:$0.03
Qwen-Image is a revolutionary image generation foundational model released by Alibaba's Tongyi Qianwen team in 2025. With a parameter scale of 20 billion, it is based on the MMDiT (Multimodal Diffusion Transformer) architecture. The model has achieved significant breakthroughs in complex text rendering and precise image editing, demonstrating exceptional performance particularly in Chinese text rendering. Translated with DeepL.com (free version)
M

Kimi-K2

입력:$0.45/M
출력:$1.79/M
- **kimi-k2-250905**: Moonshot AI의 Kimi K2 시리즈 0905 버전, 초장문 컨텍스트 지원 (최대 256k 토큰, 프런트엔드 및 Tool 호출). - 🧠 향상된 Tool 호출: 100% 정확도, 원활한 통합, 복잡한 작업 및 통합 최적화에 적합. - ⚡️ 더 효율적인 성능: TPS 최대 60-100 (표준 API), Turbo 모드에서 최대 600-100, 더 빠른 응답과 향상된 추론 능력 제공, 지식 컷오프는 2025년 중반까지.
Q

qwen3-max-preview

입력:$0.24/M
출력:$2.42/M
- **qwen3-max-preview**: Alibaba Tongyi Qianwen team's latest Qwen3-Max-Preview model, positioned as the series' performance peak. - 🧠 Powerful Multimodal and Inference: Supports ultra-long context (up to 128k tokens) and Multimodal input, excels at complex Inference, code generation, translation, and creative content. - ⚡️ Breakthrough Improvement: Significantly optimized across multiple technical indicators, faster response speed, knowledge cutoff up to 2025, suitable for enterprise-level high-precision AI applications.
Q

qwen3-coder-plus-2025-07-22

입력:$0.24/M
출력:$0.97/M
Qwen3 Coder Plus stable version, released on July 22, 2025, provides higher stability, suitable for production deployment.
Q

qwen3-coder-plus

입력:$0.24/M
출력:$0.97/M
Q

qwen3-coder-480b-a35b-instruct

입력:$0.24/M
출력:$0.97/M
Q

qwen3-coder

입력:$0.24/M
출력:$0.97/M
Q

qwen3-8b

입력:$0.04/M
출력:$0.16/M
Q

qwen3-32b

입력:$1.60/M
출력:$6.40/M
Q

qwen3-30b-a3b

입력:$0.12/M
출력:$0.48/M
Has 3 billion parameters, balancing performance and resource requirements, suitable for enterprise-level applications. - This model may employ MoE or other optimized architectures, suitable for scenarios requiring efficient processing of complex tasks, such as intelligent customer service and content generation.
Q

qwen3-235b-a22b

입력:$0.22/M
출력:$2.22/M
Qwen3-235B-A22B is the flagship model of the Qwen3 series, with 23.5 billion parameters, using a Mixture of Experts (MoE) architecture. - Particularly suitable for complex tasks requiring high-performance Inference, such as coding, mathematics, and Multimodal applications.
Q

qwen3-14b

입력:$0.80/M
출력:$3.20/M
Q

qwen2.5-vl-72b-instruct

입력:$2.40/M
출력:$7.20/M
Q

qwen2.5-vl-72b

입력:$2.40/M
출력:$7.20/M
Q

qwen2.5-vl-32b-instruct

입력:$2.40/M
출력:$7.20/M
Q

qwen2.5-omni-7b

입력:$60.00/M
출력:$60.00/M
Q

qwen2.5-math-72b-instruct

입력:$3.20/M
출력:$3.20/M
Q

qwen2.5-coder-7b-instruct

입력:$0.80/M
출력:$0.80/M
Q

qwen2.5-coder-32b-instruct

입력:$0.80/M
출력:$0.80/M
Q

qwen2.5-7b-instruct

입력:$0.80/M
출력:$0.80/M
Q

qwen2.5-72b-instruct

입력:$3.20/M
출력:$3.20/M
Q

qwen2.5-32b-instruct

입력:$0.96/M
출력:$0.96/M
Q

qwen2.5-14b-instruct

입력:$3.20/M
출력:$3.20/M
Q

qwen2-vl-7b-instruct

입력:$1.60/M
출력:$1.60/M
Q

qwen2-vl-72b-instruct

입력:$1.60/M
출력:$1.60/M
Q

qwen2-7b-instruct

입력:$0.16/M
출력:$0.16/M
Q

qwen2-72b-instruct

입력:$8.00/M
출력:$8.00/M
Q

qwen2-57b-a14b-instruct

입력:$3.20/M
출력:$3.20/M
Q

qwen2-1.5b-instruct

입력:$0.16/M
출력:$0.16/M
Q

qwen1.5-7b-chat

입력:$0.16/M
출력:$0.16/M
Q

Qwen2.5-72B-Instruct-128K

입력:$3.20/M
출력:$3.20/M
M

mj_turbo_zoom

요청당:$0.17
M

mj_turbo_variation

요청당:$0.17
M

mj_turbo_upscale_subtle

요청당:$0.17
M

mj_turbo_upscale_creative

요청당:$0.17
M

mj_turbo_upscale

요청당:$0.02
M

mj_turbo_upload

요청당:$0.01
M

mj_turbo_shorten

요청당:$0.17
M

mj_turbo_reroll

요청당:$0.17
M

mj_turbo_prompt_analyzer_extended

요청당:$0.00
M

mj_turbo_prompt_analyzer

요청당:$0.00
M

mj_turbo_pic_reader

요청당:$0.00
M

mj_turbo_pan

요청당:$0.17
M

mj_turbo_modal

요청당:$0.17
Submit the content in the modal popup, used for partial redrawing and Zoom functionality.
M

mj_turbo_low_variation

요청당:$0.17
M

mj_turbo_inpaint

요청당:$0.08
M

mj_turbo_imagine

요청당:$0.17
M

mj_turbo_high_variation

요청당:$0.17
M

mj_turbo_describe

요청당:$0.00
M

mj_turbo_custom_zoom

요청당:$0.00
M

mj_turbo_blend

요청당:$0.17
M

mj_fast_zoom

요청당:$0.06
M

mj_fast_video

요청당:$0.60
Midjourney video generation
M

mj_fast_variation

요청당:$0.06
M

mj_fast_upscale_subtle

요청당:$0.06
M

mj_fast_upscale_creative

요청당:$0.06
M

mj_fast_upscale

요청당:$0.01
M

mj_fast_upload

요청당:$0.01
M

mj_fast_shorten

요청당:$0.06
M

mj_fast_reroll

요청당:$0.06
M

mj_fast_prompt_analyzer_extended

요청당:$0.00
M

mj_fast_prompt_analyzer

요청당:$0.00
M

mj_fast_pic_reader

요청당:$0.00
M

mj_fast_pan

요청당:$0.06
M

mj_fast_modal

요청당:$0.06
M

mj_fast_low_variation

요청당:$0.06
M

mj_fast_inpaint

요청당:$0.06
M

mj_fast_imagine

요청당:$0.06
Midjourney drawing
M

mj_fast_high_variation

요청당:$0.06
M

mj_fast_edits

요청당:$0.06
M

mj_fast_describe

요청당:$0.00
M

mj_fast_custom_zoom

요청당:$0.00
M

mj_fast_blend

요청당:$0.06
S

suno_uploads

요청당:$0.02
음악 업로드
S

suno_persona_create

요청당:$0.01
Create a personal style
S

suno_music

요청당:$0.14
음악을 생성하세요
S

suno_lyrics

요청당:$0.02
Generate lyrics
S

suno_concat

요청당:$0.04
Song splicing
S

suno_act_wav

요청당:$0.01
Get WAV format files
S

suno_act_timing

요청당:$0.01
Timing: Lyrics, Audio timeline
S

suno_act_stems

요청당:$0.01
S

suno_act_mp4

요청당:$0.01
Generate MP4 MV
K

kling_virtual_try_on

요청당:$0.20
K

kling_video

요청당:$0.40
K

kling_tts

요청당:$0.02
[Speech Synthesis] 신규 출시: 온라인에서 텍스트를 방송용 오디오로 변환, 미리보기 기능 제공 ● 동시에 audio_id 생성 가능, 모든 Keling API에서 사용 가능.
K

kling_multi_image2image

요청당:$0.32
K

kling_multi_elements_submit

요청당:$0.40
K

kling_multi_elements_preview

요청당:$0.00
K

kling_multi_elements_init

요청당:$0.00
K

kling_multi_elements_delete

요청당:$0.00
K

kling_multi_elements_clear

요청당:$0.00
K

kling_multi_elements_add

요청당:$0.00
K

kling_lip_sync

요청당:$0.20
K

kling_image_recognize

요청당:$0.04
Keling 이미지 요소 인식 API, 여러 이미지 참조 영상 생성에 사용 가능, 멀티모달 영상 편집 기능 ● 객체, 얼굴, 의류 등을 인식할 수 있으며, 요청당(가능한 경우) 4세트의 결과를 획득할 수 있습니다.
K

kling_image_expand

요청당:$0.16
K

kling_image

요청당:$0.02
K

kling_identify_face

요청당:$0.02
K

kling_extend

요청당:$0.40
K

kling_effects

요청당:$0.40
K

kling_avatar_image2video

요청당:$0.16
K

kling_audio_video_to_audio

요청당:$0.20
K

kling_audio_text_to_audio

요청당:$0.20
K

kling_advanced_lip_syn

요청당:$0.20
D

Doubao Seedream 4-5

요청당:$0.04
Seedream 4.5는 ByteDance/Seed의 멀티모달 이미지 모델(텍스트→이미지 + 이미지 편집)로, 프로덕션급 이미지 충실도, 더 강력한 프롬프트 준수, 대폭 개선된 편집 일관성(피사체 보존, 텍스트/타이포그래피 렌더링, 얼굴의 사실감)에 중점을 둡니다.
D

doubao-seedream-4-0-250828

요청당:$0.02
D

doubao-seedream-3-0-t2i-250415

요청당:$0.02
D

doubao-seededit-3-0-i2i-250628

요청당:$0.02
D

doubao-seed-1-6-thinking-250715

입력:$0.04/M
출력:$1.07/M
D

doubao-seed-1-6-flash-250615

입력:$0.04/M
출력:$1.07/M
D

doubao-seed-1-6-250615

입력:$0.04/M
출력:$1.07/M
D

doubao-1.5-vision-pro-250328

입력:$0.33/M
출력:$1.00/M
D

doubao-1.5-vision-lite-250315

입력:$0.17/M
출력:$0.50/M
D

doubao-1.5-pro-32k-250115

입력:$0.18/M
출력:$0.44/M
D

doubao-1.5-pro-256k

입력:$1.10/M
출력:$1.99/M
D

doubao-1-5-vision-pro-32k

입력:$0.33/M
출력:$1.00/M
D

doubao-1-5-thinking-vision-pro-250428

입력:$0.33/M
출력:$1.00/M
D

doubao-1-5-thinking-pro-250415

입력:$0.45/M
출력:$1.79/M
D

doubao-1-5-pro-32k-250115

입력:$0.18/M
출력:$0.44/M
D

doubao-1-5-pro-32k

입력:$0.18/M
출력:$0.44/M
D

doubao-1-5-pro-256k-250115

입력:$0.56/M
출력:$1.00/M
D

doubao-1-5-pro-256k

입력:$1.10/M
출력:$1.99/M
D

doubao-1-5-lite-32k-250115

입력:$0.03/M
출력:$0.07/M
D

Doubao-Seed-1.6-thinking

입력:$0.04/M
출력:$1.07/M
D

Doubao-Seed-1.6-flash

입력:$0.04/M
출력:$1.07/M
D

Doubao-Seed-1.6

입력:$0.04/M
출력:$1.07/M
D

Doubao-1.5-vision-pro-32k

입력:$0.33/M
출력:$1.00/M
D

Doubao-1.5-vision-pro

입력:$0.33/M
출력:$1.00/M
D

Doubao-1.5-vision-lite

입력:$0.17/M
출력:$0.50/M
D

Doubao-1.5-thinking-vision-pro

입력:$0.33/M
출력:$1.00/M
D

Doubao-1.5-thinking-pro

입력:$0.45/M
출력:$1.79/M
D

Doubao-1.5-pro-32k

입력:$0.18/M
출력:$0.44/M
D

Doubao-1.5-lite-32k

입력:$0.07/M
출력:$0.13/M
R

runwayml_video_to_video

요청당:$0.96
R

runwayml_upscale_video

요청당:$0.16
R

runwayml_text_to_image

요청당:$0.32
R

runwayml_image_to_video

요청당:$0.32
R

runwayml_character_performance

요청당:$0.40
R

runway_video2video

요청당:$0.20
R

runway_video

요청당:$0.20
R

runway_act_one

요청당:$0.40
R

Black Forest Labs/FLUX 2 PRO

요청당:$0.06
FLUX 2 PRO는 FLUX 2 시리즈의 플래그십 상용 모델로, 전례 없는 품질과 디테일의 최첨단 이미지 생성을 제공합니다. 전문가 및 엔터프라이즈 애플리케이션을 위해 설계되었으며, 우수한 프롬프트 충실도, 사진처럼 사실적인 결과물, 뛰어난 예술적 표현력을 제공합니다. 이 모델은 AI 이미지 합성 기술의 최첨단을 대표합니다.
R

Black Forest Labs/FLUX 2 FLEX

요청당:$0.19
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
R

Black Forest Labs/FLUX 2 DEV

요청당:$0.06
FLUX 2 DEV is the development-friendly version optimized for research, experimentation, and non-commercial applications. It provides developers with powerful image generation capabilities while maintaining a balance between quality and computational efficiency. Perfect for prototyping, academic research, and personal creative projects.
R

stability-ai/stable-diffusion-3.5-medium

요청당:$0.11
R

stability-ai/stable-diffusion-3.5-large-turbo

요청당:$0.13
R

stability-ai/stable-diffusion-3.5-large

요청당:$0.21
R

stability-ai/stable-diffusion-3

요청당:$0.11
R

stability-ai/stable-diffusion

요청당:$0.02
R

stability-ai/sdxl

요청당:$0.03
R

recraft-ai/recraft-v3-svg

요청당:$0.26
R

recraft-ai/recraft-v3

요청당:$0.13
R

ideogram-ai/ideogram-v2-turbo

요청당:$0.06
R

ideogram-ai/ideogram-v2

요청당:$0.10
R

bria/remove-background

입력:$60.00/M
출력:$60.00/M
R

bria/increase-resolution

입력:$60.00/M
출력:$60.00/M
R

bria/image-3.2

입력:$60.00/M
출력:$60.00/M
R

bria/genfill

입력:$60.00/M
출력:$60.00/M
R

bria/generate-background

입력:$60.00/M
출력:$60.00/M
R

bria/expand-image

입력:$60.00/M
출력:$60.00/M
R

bria/eraser

입력:$60.00/M
출력:$60.00/M
R

black-forest-labs/flux-schnell

요청당:$0.01
black-forest-labs/flux-schnell은 Black Forest Labs가 개발한 텍스트-투-이미지 생성 모델로, 신속한 샘플링과 반복적인 프롬프트 탐색을 위해 설계되었습니다. 짧은 프롬프트로 다양한 스타일과 구도를 합성하며, 네거티브 프롬프트와 시드 제어를 지원하고, 제품 목업, 컨셉 아트, 마케팅 비주얼에 적합한 고해상도 결과물을 생성할 수 있습니다. 대표적인 활용 사례로는 인터랙티브 아이데이션, 썸네일 및 배너 생성, 콘텐츠 파이프라인에서의 자동화된 크리에이티브 변형 생성 등이 있습니다. 기술적 하이라이트로는 Hugging Face Diffusers 스택과의 호환성, 유연한 해상도 제어, 일반적인 GPU에서 속도에 최적화된 효율적인 샘플러 등이 포함됩니다.
R

black-forest-labs/flux-pro

요청당:$0.18
black-forest-labs/flux-pro는 Black Forest Labs의 텍스트-투-이미지 생성 모델로, 다양한 스타일과 주제 전반에 걸쳐 고충실도 이미지 합성을 지원합니다. 자세한 프롬프트를 일관된 구도의 이미지로 변환하고, 표준 생성 매개변수를 통해 종횡비와 스타일 등의 속성을 제어할 수 있습니다. 일반적인 활용 사례로는 컨셉 아트、제품 시각화、마케팅 크리에이티브、디자인 워크플로에서의 포토리얼리스틱 장면 생성이 포함됩니다. 기술적 특징으로는 텍스트-투-이미지 모달리티, 지시문 형태의 프롬프트를 따르는 능력, 일반적인 이미지 생성 툴체인과의 통합이 포함됩니다.
R

black-forest-labs/flux-kontext-pro

요청당:$0.05
black-forest-labs/flux-kontext-pro는 문맥 인식 이미지 생성을 위한 멀티모달 확산 모델입니다. 텍스트 프롬프트와 선택적 참조 이미지를 기반으로 이미지를 합성하며, 구도와 스타일 단서를 보존해 맥락에 충실한 결과를 제공합니다. 일반적인 활용 사례로는 브랜드 에셋 제작, 제품 비주얼, 무드보드나 예시 샷을 활용한 시각적 아이데이션이 포함됩니다. 기술적 특징으로는 텍스트 및 이미지 입력, 참조 조건화 샘플링, 시드 제어를 통한 재현 가능한 출력이 있습니다.
R

black-forest-labs/flux-kontext-max

요청당:$0.10
black-forest-labs/flux-kontext-max는 FLUX 라인의 컨텍스트 조건부 이미지 생성 모델로, 선택적 레퍼런스 입력과 함께 텍스트로부터 이미지를 생성하도록 설계되었습니다. 이 모델은 제공된 시각적 컨텍스트에 의해 안내되는 그라운딩된 합성, 스타일 또는 피사체 보존, 그리고 제어된 변형을 가능하게 합니다. 일반적인 활용 사례로는 브랜드 일관성을 갖춘 크리에이티브, 제품 목업, 캐릭터 일관성, 무드보드 기반 아이데이션 등이 있습니다. 기술적 하이라이트로는 디퓨전 기반 생성과, 레퍼런스 기반 워크플로에 적합한 텍스트 및 레퍼런스 입력을 통한 멀티모달 컨디셔닝이 포함됩니다.
R

black-forest-labs/flux-dev

요청당:$0.08
black-forest-labs/flux-dev는 Black Forest Labs의 가중치 공개형 텍스트-투-이미지 모델로, 자연어 프롬프트로부터 이미지를 생성합니다. 정교한 프롬프트에서 포토리얼리스틱한 결과와 스타일화된 결과를 모두 만들어내며, 디퓨전 툴체인에서 일반적인 제어 옵션과 함께 작동합니다. 대표적인 활용 사례로는 컨셉 아트, 제품 시각화, 마케팅 이미지, 디자인 워크플로우에서의 빠른 창의적 탐색 등이 있습니다. 기술적 하이라이트로는 트랜스포머 기반 rectified-flow 설계, Hugging Face Diffusers 라이브러리와의 통합, 표준 GPU 추론 스택을 통한 배포가 포함됩니다.
R

black-forest-labs/flux-1.1-pro-ultra

요청당:$0.19
black-forest-labs/flux-1.1-pro-ultra는 자연어 프롬프트를 기반으로 프로덕션 환경에서 이미지 합성을 수행하도록 설계된 텍스트-투-이미지 디퓨전 트랜스포머입니다. 스타일, 구도, 종횡비, 네거티브 프롬프트, 시드 재현성에 대한 제어 기능을 통해 복잡한 지시문으로부터 정교한 결과물을 생성합니다. 일반적인 활용 사례로는 마케팅 크리에이티브, 제품 시각화, 컨셉 아트, 콘텐츠 아이데이션 등이 있습니다. 주요 기술적 특징으로는 트랜스포머 기반 디퓨전, 텍스트 인코더 가이던스, 스케줄러와 가이던스 파라미터를 갖춘 일반적인 추론 API를 통한 배포가 포함됩니다。
R

black-forest-labs/flux-1.1-pro

요청당:$0.13
black-forest-labs/flux-1.1-pro는 제어 가능한 고충실도 비주얼 생성을 위한 Black Forest Labs의 텍스트-이미지 생성 모델입니다. 이 모델은 세부적인 프롬프트를 해석해 다양한 스타일과 주제에 걸친 구성을 만들어 내며, 일반적인 확산(디퓨전) 워크플로우에서 반복적 정제와 이미지 변형을 지원합니다. 대표적 활용 사례로는 컨셉 아트, 제품 목업, 마케팅 이미지, 장면 탐색 등이 있습니다. 기술적 하이라이트로는 텍스트 조건부 이미지 합성과 확산 모델에서 사용되는 표준 추론 툴체인과의 통합이 포함됩니다.
F

FLUX 2 PRO

요청당:$0.08
FLUX 2 PRO is the flagship commercial model in the FLUX 2 series, delivering state-of-the-art image generation with unprecedented quality and detail. Built for professional and enterprise applications, it offers superior prompt adherence, photorealistic outputs, and exceptional artistic capabilities. This model represents the cutting edge of AI image synthesis technology.
F

FLUX 2 FLEX

요청당:$0.01
FLUX 2 FLEX is the versatile, adaptable model designed for flexible deployment across various use cases and hardware configurations. It offers scalable performance with adjustable quality settings, making it ideal for applications requiring dynamic resource allocation. This model provides the best balance between quality, speed, and resource efficiency.
L

Llama-4-Scout

입력:$0.22/M
출력:$1.15/M
Llama-4-Scout는 어시스턴트형 상호작용과 자동화를 위한 범용 언어 모델입니다. 지시 수행, 추론, 요약, 변환 작업을 처리하며, 간단한 코드 관련 지원도 제공합니다. 주요 활용 사례로는 대화 오케스트레이션, 지식 증강형 QA, 구조화된 콘텐츠 생성이 있습니다. 기술적 특징으로는 도구/함수 호출 패턴과의 호환성, 검색 증강 프롬프팅, 제품 워크플로 통합을 위한 스키마 제약을 준수하는 출력이 포함됩니다。
L

Llama-4-Maverick

입력:$0.48/M
출력:$1.44/M
Llama-4-Maverick는 텍스트 이해와 생성을 위한 범용 언어 모델입니다. 대화형 질의응답, 요약, 구조화된 초안 작성, 기본적인 코딩 지원을 지원하며, 구조화된 출력 옵션도 지원합니다. 일반적인 활용 분야로는 일관된 서식을 요구하는 제품 어시스턴트, 지식 검색 프런트엔드 및 워크플로 자동화가 포함됩니다. 파라미터 수, 컨텍스트 윈도우, 모달리티, 도구 또는 함수 호출과 같은 기술 세부 사항은 배포본에 따라 달라집니다; 배포 환경의 문서화된 기능에 따라 통합하십시오.
M

minimax_video-01

요청당:$1.44
M

minimax_minimax-hailuo-02

요청당:$2.88
M

minimax_files_retrieve

요청당:$0.00
M

minimax-m2

입력:$0.24/M
출력:$0.96/M
minimax-m2는 엔드투엔드 프로그래밍과 에이전트 워크플로우에 최적화된 소형·고효율 대규모 언어 모델로, 10 billion 활성 파라미터(230 billion total parameters)를 갖추었으며, 일반적 추론, 도구 사용, 다단계 작업 실행에서 최첨단에 가까운 성능을 보이는 동시에 낮은 지연시간과 높은 배포 효율성을 유지합니다. 이 모델은 코드 생성, 다중 파일 편집, 컴파일-실행-수정 루프, 테스트 검증에서의 결함 수정에 뛰어나며, SWE-Bench Verified, Multi-SWE-Bench, Terminal-Bench 등의 벤치마크에서 우수한 결과를 달성했고, BrowseComp 및 GAIA와 같은 에이전트 평가에서 장주기 작업 계획, 정보 검색, 실행 오류 복구 측면의 경쟁력을 입증했습니다. Artificial Analysis의 평가에 따르면, MiniMax-M2는 수학, 과학적 추론, 지시 따르기 등 종합 지능 영역에서 오픈소스 모델 상위권에 속합니다. 작은 활성 파라미터 수는 빠른 추론, 높은 동시성, 더 나은 단위 경제성을 가능하게 하여, 대규모 에이전트 배포, 개발자 보조 도구, 응답 속도와 비용 효율을 요구하는 추론 기반 애플리케이션에 이상적입니다.
F

flux-pro-finetuned

요청당:$0.07
F

flux-pro-1.1-ultra-finetuned

요청당:$0.10
F

flux-pro-1.1-ultra

요청당:$0.07
F

flux-pro-1.1

요청당:$0.05
F

flux-pro-1.0-fill-finetuned

요청당:$0.10
F

flux-pro-1.0-fill

요청당:$0.06
F

flux-pro-1.0-depth-finetuned

요청당:$0.10
F

flux-pro-1.0-depth

요청당:$0.06
F

flux-pro-1.0-canny-finetuned

요청당:$0.10
F

flux-pro-1.0-canny

요청당:$0.06
F

flux-pro

요청당:$0.05
F

flux-kontext-pro

요청당:$0.05
F

flux-kontext-max

요청당:$0.10
F

flux-finetune

요청당:$0.05
F

flux-dev

요청당:$0.03
H

hunyuan-vision

입력:$2.01/M
출력:$2.01/M
H

hunyuan-turbos-vision-20250619

입력:$0.33/M
출력:$1.00/M
H

hunyuan-turbos-vision

입력:$0.33/M
출력:$1.00/M
H

hunyuan-turbos-longtext-128k-20250325

입력:$0.17/M
출력:$0.67/M
H

hunyuan-turbos-latest

입력:$0.09/M
출력:$0.22/M
H

hunyuan-turbos-20250604

입력:$0.09/M
출력:$0.22/M
H

hunyuan-turbos-20250515

입력:$0.09/M
출력:$0.22/M
H

hunyuan-turbos-20250416

입력:$0.09/M
출력:$0.22/M
H

hunyuan-turbos-20250313

입력:$0.09/M
출력:$0.22/M
H

hunyuan-t1-vision-20250619

입력:$0.11/M
출력:$0.45/M
H

hunyuan-t1-vision

입력:$0.11/M
출력:$0.45/M
H

hunyuan-t1-latest

입력:$0.11/M
출력:$0.45/M
H

hunyuan-t1-20250711

입력:$0.11/M
출력:$0.45/M
H

hunyuan-t1-20250529

입력:$0.11/M
출력:$0.45/M
H

hunyuan-t1-20250521

입력:$0.11/M
출력:$0.45/M
H

hunyuan-t1-20250403

입력:$0.11/M
출력:$0.45/M
H

hunyuan-t1-20250321

입력:$0.11/M
출력:$0.45/M
H

hunyuan-standard-256K

입력:$0.06/M
출력:$0.22/M
H

hunyuan-standard

입력:$0.09/M
출력:$0.22/M
H

hunyuan-role

입력:$0.45/M
출력:$0.89/M
H

hunyuan-pro

입력:$1.60/M
출력:$1.60/M
H

hunyuan-lite

입력:$1.60/M
출력:$1.60/M
H

hunyuan-large-vision

입력:$0.45/M
출력:$1.34/M
H

hunyuan-large

입력:$0.45/M
출력:$1.34/M
H

hunyuan-functioncall

입력:$0.45/M
출력:$0.89/M
H

hunyuan-embedding

입력:$0.08/M
출력:$0.08/M
H

hunyuan-code

입력:$0.39/M
출력:$0.78/M
H

hunyuan-all

입력:$0.11/M
출력:$0.22/M
H

hunyuan-a13b

입력:$0.06/M
출력:$0.22/M
H

hunyuan

입력:$0.11/M
출력:$0.11/M
Z

glm-zero-preview

입력:$60.00/M
출력:$60.00/M
Z

glm-4v-plus

입력:$4.80/M
출력:$4.80/M
Z

glm-4v

입력:$24.00/M
출력:$24.00/M
Z

GLM 4.6

맥락:200
입력:$0.64/M
출력:$2.56/M
Zhipu의 최신 플래그십 모델 GLM-4.6 출시: 총 파라미터 355B, 활성 파라미터 32B. 전반적인 핵심 역량은 GLM-4.5를 능가합니다. 코딩: Claude Sonnet 4와 동급, 중국 최고. 컨텍스트: 200K로 확장 (기존 128K). 추론: 개선, Tool 호출 지원. 검색: Tool 및 에이전트 프레임워크 최적화. 글쓰기: 인간의 선호, 문체, 롤플레잉에 더 부합. 다국어: 번역 성능 향상.
Z

glm-4.5-x

입력:$3.20/M
출력:$12.80/M
High-performance, strong Inference, extremely fast response model, optimized for scenarios requiring ultra-fast Inference speed and powerful logical capabilities, providing millisecond-level response experience.
Z

glm-4.5-flash

입력:$0.16/M
출력:$0.64/M
GLM-4.5-Flash is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5-airx

입력:$1.60/M
출력:$6.40/M
Lightweight, high-performance, ultra-fast response model, perfectly combining the cost advantages of Air and the speed advantages of X, an ideal choice for balancing performance and efficiency.
Z

glm-4.5-air

입력:$0.16/M
출력:$1.07/M
GLM-4.5-Air is an artificial intelligence model provided by ZhipuAI.
Z

glm-4.5

입력:$0.48/M
출력:$1.92/M
GLM-4.5 is an artificial intelligence model provided by ZhipuAI.
Z

glm-4-plus

입력:$24.00/M
출력:$24.00/M
Z

glm-4-long

입력:$0.48/M
출력:$0.48/M
Z

glm-4-flash

입력:$0.05/M
출력:$0.05/M
Z

glm-4-airx

입력:$4.80/M
출력:$4.80/M
Z

glm-4-air

입력:$0.48/M
출력:$0.48/M
Z

glm-4-0520

입력:$24.00/M
출력:$24.00/M
Z

glm-4

입력:$24.00/M
출력:$24.00/M
Z

glm-3-turbo

입력:$1.60/M
출력:$1.60/M