Minimax M2 API에 접속하고 사용하는 방법

CometAPI
AnnaDec 2, 2025
Minimax M2 API에 접속하고 사용하는 방법

MiniMax M2는 에이전트 워크플로 및 엔드투엔드 코딩에 최적화된 차세대 대규모 언어 모델입니다. MiniMax는 MiniMax-M2를 공개하고 Hugging Face에 가중치를 게시했습니다. 이는 매우 큰 총 매개변수 예산을 가진 MoE(희소) 모델이지만 토큰당 활성 집합은 훨씬 적으며, 매우 큰 컨텍스트(200만 개 이상의 토큰)를 지원합니다.

Minimax M2의 디자인은 정말 훌륭하며, 개발자들이 그 기능을 경험하고 싶어 할 것이라고 생각합니다. M2를 사용하기 위한 몇 가지 솔루션과 참고할 수 있는 고급 기술을 소개합니다. Minimax M2를 사용하려면 CometAPI를 추천합니다. 이 글에서는 M2의 정의와 주요 기능을 설명하고, 호스팅 API 액세스와 셀프 호스팅 API 액세스를 비교하며, 모델 호출에 대한 가격 및 실제 사례를 제시하고, 마지막으로 프로덕션급 성능과 비용 효율성을 확보하기 위한 고급 최적화 및 툴링 기술로 마무리합니다.

MiniMax M2이란 무엇인가요?

MiniMax M2는 MiniMax의 최신 플래그십 모델로, "에이전트" 워크플로(도구 사용, 코드, 다단계 추론) 및 장시간 컨텍스트 작업을 위해 설계된 개방형 가중치, 전문가 혼합(MoE) 스타일 텍스트 모델입니다. 공개 보고서 및 커뮤니티 문서에 따르면 M2는 매우 큰 모델(MoE 설계에 따라 총 수천억 개의 매개변수를 사용하며, 패스당 사용되는 활성 매개변수 수는 훨씬 적음)로, 높은 처리량과 비용 효율성을 목표로 하는 동시에 복잡한 다중 파일, 다중 도구 작업에 대한 대규모 컨텍스트 윈도우를 지원합니다. 독립 벤치마킹 담당자와 레시피 유지 관리자들은 MiniMax M2를 vLLM/Ollama/기타 추론 스택에 빠르게 추가했으며, MiniMax는 해당 모델 및 에이전트 도구에 대한 API와 개발자 문서를 게시하고 있습니다.

M2가 중요한 이유: MiniMax M2는 도구 호출, 파일 편집, 장기적 맥락 유지, 추론 비용 절감을 필요로 하는 어시스턴트 시스템 구축을 위한 실용적인 선택으로 자리매김했습니다. 초기 분석 결과, 코딩, 수학 및 도구 사용에 대한 일반적인 벤치마크에서 달러당 뛰어난 성능을 보였습니다.

핵심 기능 및 아키텍처

전문가 혼합, 총 매개변수는 크지만 활동 영역은 작음

M2는 매우 큰 총 매개변수 수(보고 범위가 수천억 개에 달함)를 포함하는 것으로 보고되지만, 순방향 패스당 훨씬 적은 수의 매개변수만 활성화합니다. - MiniMax 게시 자료 강조 표시 ~총 매개변수 230B~10B 정도의 활성 매개변수 풋프린트 추론을 위해. 이러한 절충안 덕분에 M2는 토큰당 컴퓨팅 및 지연 시간이 비교적 낮으면서도 높은 성능을 제공할 수 있습니다(전형적인 MoE 이점: 높은 모델 용량, 낮은 활성화 비용).

긴 컨텍스트 지원

MiniMax는 M2에 대해 매우 큰 컨텍스트 윈도우를 광고합니다(엔터프라이즈 규모의 긴 컨텍스트를 대상으로 함). 릴리스 자료의 일부 플랫폼 문서에서는 매우 큰 토큰 윈도우(수만 개에서 수십만 개까지의 토큰)를 지원한다고 언급하는데, 이는 다중 문서 코딩 작업, 긴 에이전트 추적 및 검색 강화 흐름에 유용합니다. (매우 긴 컨텍스트를 사용할 계획이라면 제공업체의 실질적인 한계를 테스트해 보세요. 모델 아키텍처가 극단적인 윈도우를 지원하더라도 제공업체가 출시 또는 엔지니어링에 제한을 두는 경우가 있습니다.)

에이전트 기반 툴링 및 코딩 중심

MiniMax M2는 도구 호출 및 다단계 자동화(셸/브라우저/Python 도구 통합)와 코딩 워크플로(다중 파일 편집, 실행-수정 주기, 테스트 기반 수정)에 최적화되어 있습니다. 일반 채팅 모델에 비해 더 나은 제로샷 도구 오케스트레이션 동작과 다단계 개발자 작업에 대한 향상된 "후속 작업"을 기대할 수 있습니다.

개발자는 MiniMax M2를 어떻게 사용하고 접근할 수 있나요?

두 가지 주요 운영 경로가 있습니다. 호스팅된 API를 사용하세요 (빠르고 마찰이 적음) 또는 셀프 호스트 모델(더 큰 제어력, 매우 큰 규모 또는 개인정보 보호 측면에서 잠재적으로 더 낮은 한계 비용)을 제공합니다. 아래는 두 가지 모델에 대한 실용적이고 실행 가능한 단계입니다.

옵션 A - 호스팅 API(대부분의 팀에 권장)

코멧API 노출 미니맥스 M2 OpenAI 호환 HTTP 표면 뒤에 있으므로 이미 사용 중인 동일한 채팅/완료 패턴으로 모델을 호출할 수 있습니다. 간단히 가입하고 받으세요. sk-... API 키, 클라이언트를 CometAPI의 기본 URL로 지정하고 요청합니다. minimax-m2 모델. CometAPI는 놀이터, 무료 체험 토큰, 공급업체의 직접 호스팅 가격에 비해 할인된 가격을 제공하므로 신속한 프로토타입 제작 및 프로덕션 마이그레이션을 위한 매력적인 방법입니다.

이것을 선택해야 할 때: 빠른 통합, 소규모 팀, 추론 인프라를 관리하지 않고도 프로덕션 배포가 필요한 경우 또는 자동 모델 업데이트 및 모니터링을 중요하게 생각하는 경우.

단계(호스팅 API):

  1. CometAPI에 계정을 만들고 로그인하세요.
  2. 대시보드(콘솔/토큰)에서 API 토큰을 생성하거나 복사합니다. 키는 다음과 같습니다. sk-XXXXX. 이 값을 Secrets Manager나 환경 변수에 저장하고, 커밋하지 마세요. CometAPI는 여러 계정에서 테스트용으로 제한된 무료 토큰을 제공합니다.
  3. CometAPI의 HTTP 표면은 OpenAI와 호환됩니다. 클라이언트의 기본 URLhttps://api.cometapi.com/v1/chat/completions 그런 다음 OpenAI 스타일 JSON 페이로드를 사용합니다(예: model, messages, max_tokens, temperature). 이는 대부분의 OpenAI SDK 코드가 작은 변경으로 작동함을 의미합니다. api_base / base_url.
  4. 모델 문자열을 선택하세요: CometAPI에서 MiniMax M2에 대해 게시한 모델 이름을 사용하세요. minimax-m2 (CometAPI 모델 페이지는 모델과 샘플 사용법을 보여줍니다).
  5. 전화 걸기 — 일반적인 curl 예제(OpenAI 스타일 JSON)는 다음과 같습니다.
curl -X POST "https://api.cometapi.com/v1/chat/completions" \
  -H "Authorization: Bearer $CometAPI_API_KEY" \
  -H "Content-Type: application/json" \
  -d '{
    "model": "minimax-m2",
    "messages": [
      {"role":"system","content":"You are a helpful coding assistant."},
      {"role":"user","content":"Refactor this function to be async..."}
    ],
    "max_tokens": 1024,
    "temperature": 0.2
  }'

참고: 엔드포인트와 매개변수 이름을 CometAPI의 API 문서에서 정확한 값으로 바꾸세요. MiniMax는 개발자 포털에서 OpenAI 호환 패턴과 에이전트 기본 요소를 문서화합니다.

일반적인 패턴은 다음과 같습니다.

  1. 입안자 — 단계별 계획을 수립합니다(예: 데이터 가져오기, 웹 호출, 테스트 실행).
  2. 배우 — 계획에 지정된 대로 도구(API, 셸, 코드 실행)를 호출합니다.
  3. 검증 자 — 테스트나 검사를 실행하고 실패하면 루프백합니다.

MiniMax M2의 훈련과 구성은 이러한 인터리빙을 강조하므로, 모델은 스캐폴드가 주어졌을 때 잘 구성된 도구 호출과 구조화된 출력을 생성하는 경향이 있습니다.

호스팅 API에 대한 통합 팁

  • 스트리밍 사용자가 인지하는 지연 시간을 줄이고 부분적인 출력 처리를 허용하기 위해 지원됩니다.
  • 구현 속도 제한 및 재시도 논리 일시적인 실패에 대해서.
  • 토큰 회계: 요청별로 입력 토큰과 출력 토큰을 추적하는 로깅을 구축하여 지출을 모니터링하고 알림을 설정할 수 있습니다.

옵션 B - 셀프 호스팅(격리, 사용자 지정 인프라 또는 매우 높은 지속적 처리량이 필요할 때 권장)

이것을 선택해야 할 때: 규정 준수/개인정보 보호 요구 사항(데이터 상주), 상환 인프라가 더 저렴할 수 있는 매우 높은 처리량, 또는 스택에 대한 맞춤형 수정.

요구 사항 및 생태계

  • 하드웨어: MoE 모델의 활성 매개변수 풋프린트는 작을 수 있지만(활성 10B), 물리적 모델 파일, 전문가 테이블 및 라우팅 로직은 메모리/IO에 영향을 미칩니다. 대용량 GPU 메모리(A100/H100 클래스 또는 다중 GPU 클러스터), 모델 샤드를 위한 고속 NVMe, 그리고 고대역폭 상호 연결(NVLink/InfiniBand)은 프로덕션 환경에서 일반적으로 사용됩니다. 오프로드 전략과 양자화를 통해 요구 사항을 줄일 수 있습니다.
  • 추론 스택: vLLM, Ollama 및 기타 커뮤니티 스택에는 M2 레시피와 문서가 있습니다. 처리량 및 멀티 테넌트 서비스 제공에는 vLLM을 사용하세요. Ollama는 더 쉬운 로컬 개발 루프를 제공합니다.
  • 컨테이너화 및 오케스트레이션: 모델 서버를 컨테이너(Docker)에 넣고 Kubernetes/Autoscaler를 사용하여 프로덕션을 실행합니다.

기본 자체 호스팅 흐름(고수준)

  1. 가중치를 얻다 (라이센스 및 사용 약관을 준수하세요) MiniMax 배포판 또는 공식 미러 사이트에서 제공됩니다. MiniMax M2 무게는 공개되어 있으므로 커뮤니티에서 포장재와 레시피를 제공합니다.
  2. 추론 엔진을 선택하세요 — 높은 처리량을 위해서는 vLLM을, 로컬/테스트를 위해서는 Ollama와 같은 런타임을 사용합니다. 엔진을 설치하고 구성하세요.
  3. 모델을 제공하다 — 모델 경로로 vLLM 또는 선택한 서버를 실행하고 GPU/병렬 처리 설정을 조정합니다.
  4. 서버 앞부분 애플리케이션에서 기대하는 헤더/의미를 반영하는 자체 API 게이트웨이(예: OpenAI 스타일 또는 사용자 지정 RPC)를 사용합니다. 인증, 로깅 및 속도 제한을 추가합니다.

vLLM 및 유사 런타임은 처리량과 메모리 효율성을 최적화합니다. MiniMax는 GPU 메모리 분할 및 효율적인 디스패치를 ​​통해 M2를 실행하기 위한 vLLM 레시피와 예제 구성을 공개했습니다. 예제(개념적):

# Example: launch vLLM server (stylized)

vllm_server --model-name MiniMaxAI/MiniMax-M2 \
            --num-gpus 4 \
            --dtype fp16 \
            --max-seq-len 8192
# Client snippet to call vLLM server

from vllm import Client
client = Client("http://localhost:8080")
resp = client.generate("Implement a Unix-style recursive directory listing in Python.")
print(resp.get_completions().text)

비용 관점에서 본 호스팅 API 대 셀프 호스팅

호스팅 API - 장단점

  • 장점 : 간편한 과금(토큰당), 관리형 처리량, SLA, 낮은 엔지니어링 부담. 공개된 토큰 가격은 많은 사용 사례에서 매우 낮습니다(실험을 시작하기에 좋은 지점).
  • 단점 : 토큰당 가격은 여전히 ​​사용량에 따라 조정되고, 출력 토큰은 더 높은 요금으로 청구되며, 대기 시간/처리량 조정에 대한 제어력이 떨어지고, 특수 라우팅이나 개인 데이터 처리에 대한 공급업체 잠금이 발생합니다.

셀프 호스팅 - 장단점

  • 장점 : 일회성 인프라 및 운영 비용(GPU + 인프라)을 지불하고 양자화, 배칭 및 처리량 조정을 제어할 수 있습니다. 매우 높은 볼륨의 안정적인 워크로드에서 토큰당 비용을 절감할 수 있습니다. M2와 같은 MoE 모델은 적절한 병렬 처리 및 양자화를 통해 실행될 경우 토큰당 서비스 비용이 더 저렴할 수 있습니다.
  • 단점 : 높은 초기 자본 및 운영 비용: 클러스터 설계(H100/A100/A800/H200), 네트워킹, 전문가 병렬 처리, 부하 분산. 전문가 병렬 처리/vLLM 레시피는 조정이 쉽지 않습니다. 또한 엄격한 유지 관리/가동 시간이 필요한 경우에도 관리형 호스팅이 전반적으로 더 저렴할 수 있습니다.

간단한 결정 휴리스틱

  • 당신이 기대한다면 낮음~중간 교통량 또는 시장 출시 속도를 원하시면 호스팅 API로 시작하세요.
  • 당신이 기대한다면 지속적이고 매우 높은 처리량 (하루 수백만 토큰 이상) 및 운영 인력을 확보하고, 호스팅된 토큰당 청구와 추정 인프라/운영 상각 비용을 비교하는 비용 모델을 실행합니다. MoE 셀프 호스팅은 규모에 따라 종종 매력적으로 다가옵니다.

가격 및 상업적 옵션

MiniMax는 플랫폼 가격 페이지에 토큰별 가격을 나열합니다(출시 중간에 게시된 가격 예시): 입력 토큰 ≈ 1M 토큰당 0.3** 및 **출력 토큰 ≈ 1M 토큰당 1.2 그들의 플랫폼에.

호스팅 비용과 숨은 비용: 호스팅 API를 사용하면 게시된 API 요금을 지불하게 되며 운영 및 GPU 자본 지출을 피할 수 있습니다. 자체 호스팅하는 경우 GPU, 스토리지, 네트워킹 및 엔지니어링 비용이 발생할 수 있습니다. MoE 모델은 특정 런타임 지원이 필요하며 고밀도 모델과는 다른 메모리/IO 프로파일을 적용할 수 있습니다(위의 자체 호스팅 섹션 참조).

MiniMax M2용 CometAPI 가격

CometAPI는 모델 페이지에 모델별 가격을 표시합니다. MiniMax M2의 경우, CometAPI 페이지에는 예시 가격과 공급업체 대비 프로모션 할인이 표시됩니다.

  • 입력 토큰: 1M 토큰당 약 0.24달러
  • 출력 토큰: 1M 토큰당 약 0.96달러
  • CometAPI는 할인(예: 일부 상품의 경우 "정가 대비 약 20% 할인")을 광고하며, 체험 계정에 무료 토큰을 제공하는 경우도 많습니다. 대량 구매 전에 모델 페이지와 계정 결제 화면에서 가격을 반드시 확인하세요.

실용적인 참고사항: CometAPI는 게이트웨이를 통해 라우팅된 요청에 대해 요금을 청구합니다. 즉, CometAPI를 통해 호출한 모델에 대한 중앙 집중식 요금 청구 및 사용 보고서를 받을 수 있습니다(다중 모델 팀에 편리함).

프롬프트 및 메시지 프로토콜(실용 템플릿)

아래는 강력한 ReAct 스타일 프로토콜을 위한 복사/붙여넣기 가능한 템플릿입니다. OpenAI 스타일의 채팅 메시지이며, CometAPI 또는 OpenAI 호환 게이트웨이와 호환됩니다.

시스템 지침(모델을 에이전트 모드로 유지)

System: You are an agentic assistant. For each turn, follow this strict structured format in the assistant output:

1) THOUGHT: a short plan or reasoning step (internal).
2) ACTION: one of:
- CALL_TOOL(name, args_json)  // request me to run a tool
- FINAL_ANSWER: <short text>  // when finished
3) RATIONALE: one-sentence justification for the action (optional).

Only include one ACTION per assistant reply. Do not output tool results. Wait for the tool result (OBSERVATION) from the environment and then continue. Use concise tokens to reduce cost.

보조 예제(모델이 반환하는 내용)

Assistant -> (to server):

THOUGHT: Need latest release notes to verify API changes.
ACTION: CALL_TOOL("web_search", {"query":"MiniMax M2 release notes Oct 2025"})
RATIONALE: Confirm model behavior for agentic tool schema.

환경/서버가 도구 출력을 사용자/시스템 메시지로 다시 보냅니다.

System: TOOL_RESULT for CALL_TOOL("web_search", ...):
OBSERVATION: {"top_result_title":"MiniMax M2 v1.2 release notes", "snippet":"...agent APIs updated..."}

그런 다음 모델은 또 다른 생각/행동으로 이어진다.

최종 사용자 대상 답변(검증 후)

Assistant -> (to user):

FINAL_ANSWER: "MiniMax M2 now supports function-style tool calls. To call it, use ... ."

고급 기술(견고성 및 기능 향상)

1) 생각의 나무와 분기 검색

단일 선형 사고 경로 대신, 여러 후보 행동/계획을 ​​병렬로 확장하고, 모델이나 점수 매기기 함수를 통해 이를 평가한 후, 가장 유망한 분기를 탐색합니다. 복잡한 계획, 퍼즐, 여러 옵션이 있는 다단계 코딩 등 어려운 작업에 활용하세요.

  • 부분적 해결책의 빔을 유지하세요.
  • 휴리스틱을 통해 지점에 점수를 매깁니다. 사실성 확인, 도구 성공률 또는 예측 유용성 등이 있습니다.
  • 비용을 통제하기 위해 점수가 낮은 가지를 가지치세요.

2) 자기 일관성 및 앙상블

여러 개의 독립적인 솔루션 트레이스(다른 온도, 시드)를 생성합니다. 다수결 투표 또는 품질 평가 방식으로 최종 답변을 집계합니다. 단일 실행 환각 현상을 줄입니다.

3) 사고와 행동의 교정

  • 낮은 온도 (결정론적이고 안정적인 도구 호출) 작업을 위한 것입니다.
  • 더 높은 온도 창의성이 필요한 경우 브레인스토밍/계획을 수립하는 데 사용합니다.
  • 이를 서로 다른 모델 호출이나 동일한 호출에서 명시적인 온도를 통해 구분합니다.

4) 스크래치패드 & 메모리

  • 작업 기억(도구 호출 중에 발견한 사실, 중간 코드 조각)을 위한 내부 스크래치패드를 보관하세요.
  • 중요한 사실을 세션 메모리나 벡터 DB에 저장해 두면 향후 쿼리에서 이를 재사용할 수 있습니다(재검색을 방지).

5) 검증 계층

영향력이 큰 작업(예: 배포, 삭제, 금융 거래)을 실행하기 전에 다음이 필요합니다.

  • 사람이 읽을 수 있는 짧은 요약을 생성하는 모델
  • 2차 모델 또는 검증 스크립트를 통한 교차 확인
  • 파괴적인 행동에 대한 인간의 수동 승인.

6) 비용 및 지연 최적화

  • 짧고 구조화된 심의 메시지를 사용하세요(응답당 하나의 행동).
  • 긴 출력에 스트리밍을 사용하면 인식되는 지연 시간을 줄일 수 있습니다.
  • 결정적 또는 반복적 도구 호출 응답을 캐시합니다.

예제 구현(CometAPI를 사용한 Python 의사코드)

이 의사코드는 서버 측 오케스트레이션을 보여줍니다. CometAPI가 OpenAI 호환 채팅 완성 기능을 지원한다고 가정합니다.

import requests, os, json

API_KEY = os.getenv("COMETAPI_KEY")
ENDPOINT = "https://api.cometapi.com/v1/chat/completions"
HEADERS = {"Authorization": f"Bearer {API_KEY}", "Content-Type": "application/json"}

def call_model(messages, model="minimax-m2", max_tokens=512, temperature=0.2):
    payload = {"model": model, "messages": messages, "max_tokens": max_tokens, "temperature": temperature}
    r = requests.post(ENDPOINT, headers=HEADERS, json=payload)
    return r.json()

# Initial conversation: system + user request

messages = [
    {"role":"system", "content": "You are an agentic assistant... "},
    {"role":"user", "content": "Help me update the CI job to use M2's new agent API."}
]

# Loop: ask model for thought/action, execute action, provide observation, repeat

for step in range(8):  # max 8 steps to avoid runaway loops

    resp = call_model(messages)
    assistant_text = resp
    # parse assistant_text for ACTION (e.g., CALL_TOOL)

    action = parse_action(assistant_text)
    if action == "FINAL_ANSWER":
        final = extract_final_answer(assistant_text)
        # present final to user

        print("FINAL:", final)
        break
    elif action == "CALL_TOOL":
        tool_name = action
        tool_args = action
        # Execute the tool safely (validate inputs first!)

        obs = safe_execute_tool(tool_name, tool_args)
        messages.append({"role":"system", "content": f"TOOL_RESULT: {json.dumps(obs)}"})
        # loop continues: model gets observation and responds

키 포인트:

  • parse_action 견고하고 엄격해야 합니다. 자유형 구문 분석에 의존하지 마세요.
  • safe_execute_tool 도구 인수를 검증해야 합니다(허용된 작업 허용 목록, 매개변수 정리).
  • 최대 걸음 수와 제한 시간을 적용합니다.

닫는 생각

MiniMax M2는 개방형 LLM 생태계에서 중요한 새로운 옵션입니다. 코딩 및 에이전트 워크플로에 최적화된 MoE 기반 모델로, 팀이 호스팅 편의성과 자체 호스팅 제어 중 하나를 선택할 수 있도록 가중치와 도구를 제공합니다. 많은 팀에게 가장 좋은 접근 방식은 두 단계로 구성된 여정입니다. (1) 호스팅 엔드포인트 또는 무료 데모에서 신속하게 검증한 후, (2) 운영 투자를 정당화할 수 있는 제어, 사용자 지정 또는 장기 비용 프로필이 필요한 경우에만 자체 호스팅을 평가합니다. 긴 컨텍스트 윈도우, 에이전트 기반 기능, 그리고 개방형 가중치의 조합은 M2를 개발자 도구, 다단계 에이전트 및 프로덕션 어시스턴트에게 특히 매력적으로 만듭니다. 단, 팀이 신중한 최적화 및 안전 엔지니어링을 적용해야 합니다.

MiniMax M2 API에 액세스하는 방법

CometAPI는 OpenAI의 GPT 시리즈, Google의 Gemini, Anthropic의 Claude, Midjourney, Suno 등 주요 공급업체의 500개 이상의 AI 모델을 단일 개발자 친화적인 인터페이스로 통합하는 통합 API 플랫폼입니다. CometAPI는 일관된 인증, 요청 형식 지정 및 응답 처리를 제공하여 애플리케이션에 AI 기능을 통합하는 과정을 획기적으로 간소화합니다. 챗봇, 이미지 생성기, 음악 작곡가 또는 데이터 기반 분석 파이프라인 등 어떤 제품을 구축하든 CometAPI를 사용하면 AI 생태계 전반의 최신 혁신 기술을 활용하면서 반복 작업을 더 빠르게 수행하고 비용을 관리하며 공급업체에 구애받지 않을 수 있습니다.

개발자는 액세스할 수 있습니다 미니맥스 M2 API CometAPI를 통해 최신 모델 버전 공식 웹사이트에서 항상 업데이트됩니다. 시작하려면 모델의 기능을 살펴보세요. 운동장 그리고 상담하십시오 API 가이드 자세한 내용은 CometAPI를 참조하세요. 접속하기 전에 CometAPI에 로그인하고 API 키를 발급받았는지 확인하세요. 코멧API 공식 가격보다 훨씬 낮은 가격을 제공하여 통합을 돕습니다.

출발 준비 되셨나요?→ 지금 CometAPI에 가입하세요 !

AI에 대한 더 많은 팁, 가이드 및 뉴스를 알고 싶다면 저희를 팔로우하세요. VKX 및  디스코드!

SHARE THIS BLOG

하나의 API로 500개 이상의 모델

최대 20% 할인