Alibaba AI, Qwen3-Max 공개: XNUMX조 개의 매개변수를 가진 Qwen 모델, CometAPI 지원

CometAPI
AnnaOct 15, 2025
Alibaba AI, Qwen3-Max 공개: XNUMX조 개의 매개변수를 가진 Qwen 모델, CometAPI 지원

알리바바의 Qwen 팀이 출시되었습니다. Qwen3-Max-Preview(지시) — 현재까지 회사의 가장 큰 모델입니다. 1조 개 이상의 매개변수 — Qwen Chat, Alibaba Cloud Model Studio(API), 그리고 CometAPI와 같은 서드파티 마켓플레이스를 통해 즉시 사용할 수 있도록 제공되었습니다. 이 프리뷰는 극한의 규모와 매우 큰 컨텍스트 윈도우, 그리고 컨텍스트 캐싱을 결합하여 장시간 세션의 지연 시간을 낮게 유지함으로써 추론, 코딩 및 장문 문서 워크플로우를 목표로 합니다.

주요 기술적 하이라이트

  1. 엄청난 매개변수 수(조 개 이상): 1조 개 이상의 매개변수 모델로의 전환은 복잡한 패턴 학습(다단계 추론, 코드 합성, 심층 문서 이해) 용량을 늘리도록 설계되었습니다. Qwen이 발표한 초기 벤치마크는 Qwen의 이전 상위 모델 대비 추론, 코딩 및 벤치마크 스위트에서 향상된 결과를 보여줍니다.
  2. 매우 긴 컨텍스트 및 캐싱: The 262k 토큰 이 창을 통해 팀은 긴 보고서, 여러 파일로 구성된 코드베이스 또는 긴 채팅 기록 전체를 한 번에 처리할 수 있습니다. 컨텍스트 캐싱 지원은 반복되는 컨텍스트에 대한 반복적인 컴퓨팅을 줄이고, 장시간 세션의 지연 시간과 비용을 절감할 수 있습니다.
  3. 다국어 + 코딩 능력: Qwen3 제품군은 이중 언어(중국어/영어) 및 광범위한 다국어 지원을 강조하며, 더욱 강력한 코딩과 체계적인 출력 처리를 제공합니다. 이는 코드 지원, 자동 보고서 생성, 대규모 텍스트 분석에 유용합니다.
  4. 속도와 품질을 위해 설계되었습니다. 프리뷰 사용자들은 이전 Qwen3 모델에 비해 "눈부신" 응답 속도와 향상된 지시 수행 및 추론 능력을 칭찬합니다. 알리바바는 이 모델을 프로덕션급, 에이전트식 및 개발자 시나리오를 위한 고처리량 플래그십 모델로 포지셔닝합니다.

가용성 및 액세스

알리바바 클라우드 요금 계층형, 토큰 기반 Qwen3-Max-Preview 가격(입력 및 출력 요금은 별도). 과금은 토큰 백만 개 기준으로 부과되며, 무료 할당량 이후 실제 사용된 토큰에 적용됩니다.

Alibaba의 공개 미리보기 가격(USD)은 요청에 따라 구분됩니다. 입력 토큰 볼륨(동일한 계층에 따라 적용되는 단위 요금이 결정됨):

  • 0–32K 입력 토큰: 0.861 / 1M 입력 토큰** 및 **3.441 / 1M 출력 토큰.
  • 32K–128K 입력 토큰: 1.434 / 1M 입력 토큰** 및 **5.735 / 1M 출력 토큰.
  • 128K–252K 입력 토큰: 2.151 / 1M 입력 토큰** 및 **8.602 / 1M 출력 토큰.

CometAPI는 사용자가 API를 호출하는 데 도움이 되도록 공식적으로 20% 할인을 제공합니다. 자세한 내용은 다음을 참조하세요. Qwen3-Max-미리보기:

입력 토큰$0.24
출력 토큰$2.42

Qwen3-Max는 Qwen3 제품군(이전 빌드에서는 Mixture-of-Experts 변형 및 여러 활성 매개변수 계층과 같은 하이브리드 설계를 사용)을 확장합니다. Alibaba의 이전 Qwen3 출시는 "사고"(단계적 추론) 모드와 "지시" 모드 모두에 중점을 두었습니다. Qwen3-Max는 해당 제품군의 새로운 최고급 지시 변형으로 자리매김하여, Alibaba의 이전 최고 성능 제품인 Qwen3-235B-A22B-2507을 능가함을 보여주며, 1T 매개변수 모델이 다양한 테스트에서 우위를 점함을 보여줍니다.

SuperGPQA, AIME25, LiveCodeBench v6, Arena-Hard v2 및 LiveBench(20241125)에서 Qwen3-Max-Preview는 Claude Opus 4, Kimi K2 및 Deepseek-V3.1보다 꾸준히 높은 순위를 기록했습니다.

Alibaba AI, Qwen3-Max 공개: XNUMX조 개의 매개변수를 가진 Qwen 모델, CometAPI 지원

Qwen3-Max 접속 및 사용 방법(실용 가이드)

1) 브라우저에서 시도해 보세요(Qwen Chat)

방문 웬 채팅 (공식 Qwen 웹/채팅 인터페이스)를 선택하고 Qwen3-Max-미리보기 (지시) 모델은 모델 선택기에 표시됩니다. 대화 및 지시 작업을 시각적으로 평가하는 가장 빠른 방법입니다.

2) 접근 방법 알리바바 클라우드 (모델 스튜디오/클라우드 API)

  • Alibaba Cloud에 로그인 → 모델 스튜디오 / 모델 서빙추론 인스턴스를 생성하거나 호스팅된 모델 엔드포인트를 선택하세요. qwen3-max-미리보기 (또는 표시된 미리보기 버전).
  • Alibaba Cloud 액세스 키/RAM 역할을 사용하여 인증하고 프롬프트와 생성 매개변수(온도, 최대 토큰 등)가 포함된 POST 요청으로 추론 엔드포인트를 호출합니다.

3) 사용 타사 호스트/애그리게이터

보도에 따르면, 이 미리보기는 CometAPI 및 기타 API 애그리게이터를 통해 이용할 수 있으며, 개발자는 이를 통해 단일 API 키로 여러 호스팅 모델을 호출할 수 있습니다. 이를 통해 여러 제공업체 간의 테스트를 간소화하는 동시에 각 호스트의 지연 시간, 지역별 가용성 및 데이터 처리 정책을 검증할 수 있습니다.

시작 가이드

CometAPI는 OpenAI의 GPT 시리즈, Google의 Gemini, Anthropic의 Claude, Midjourney, Suno 등 주요 공급업체의 500개 이상의 AI 모델을 단일 개발자 친화적인 인터페이스로 통합하는 통합 API 플랫폼입니다. CometAPI는 일관된 인증, 요청 형식 지정 및 응답 처리를 제공하여 애플리케이션에 AI 기능을 통합하는 과정을 획기적으로 간소화합니다. 챗봇, 이미지 생성기, 음악 작곡가 또는 데이터 기반 분석 파이프라인 등 어떤 제품을 구축하든 CometAPI를 사용하면 AI 생태계 전반의 최신 혁신 기술을 활용하면서 반복 작업을 더 빠르게 수행하고 비용을 관리하며 공급업체에 구애받지 않을 수 있습니다.

결론

Qwen3-Max-Preview는 알리바바를 고객에게 수조 달러 규모의 모델을 제공하는 기업 중 하나로 자리매김했습니다. 긴 컨텍스트 길이와 OpenAI 호환 API의 조합은 장문 문서 추론, 코드 자동화 또는 에이전트 오케스트레이션이 필요한 기업의 통합 장벽을 낮춰줍니다. 비용과 미리보기 안정성은 도입 시 주요 고려 사항입니다. 기업은 지연 시간과 가격 책정을 모두 관리하기 위해 캐싱, 스트리밍 및 일괄 호출을 활용한 파일럿을 원할 것입니다.

SHARE THIS BLOG

하나의 API로 500개 이상의 모델

최대 20% 할인