Qwen3은 어떻게 작동하나요?

CometAPI
AnnaJun 1, 2025
Qwen3은 어떻게 작동하나요?

Qwen3는 정교한 추론 기능과 높은 효율성, 그리고 폭넓은 접근성을 결합하여 오픈소스 대규모 언어 모델(LLM) 분야에서 획기적인 발전을 이루었습니다. 알리바바의 연구 및 클라우드 컴퓨팅 팀이 개발한 Qwen3는 Apache 4 라이선스에 따라 완전히 개방된 상태를 유지하면서도 OpenAI의 GPT-2.0x 및 Google의 PaLM과 같은 주요 독점 시스템과 경쟁할 수 있는 입지를 갖추고 있습니다. 이 글에서는 Qwen3의 구상 과정, 기본 메커니즘, 그 역량을 구축한 학습 체계, 그리고 전 세계 개발자들이 QwenXNUMX의 잠재력을 활용할 수 있는 방안을 심층적으로 살펴봅니다.


Qwen3는 무엇이고 왜 중요한가요?

대규모 언어 모델은 자연어 이해 및 생성 방식을 혁신하여 대화형 에이전트부터 코드 어시스턴트까지 모든 것을 구동합니다. Qwen3는 알리바바의 Qwen 제품군 중 Qwen2.5와 그 변형에 이어 출시된 최신 제품으로, 다음과 같은 몇 가지 주요 혁신 기술을 구현합니다.

  • 하이브리드 추론: "사고" 모드와 "비사고" 모드를 단일 아키텍처로 완벽하게 통합하여 작업 복잡도에 따라 컴퓨팅 리소스를 동적으로 할당할 수 있습니다.
  • 전문가 혼합(MoE) 옵션: 쿼리당 특정 전문가 모듈의 하위 집합만 활성화하는 모델을 제공하여 성능을 저하시키지 않고 효율성을 높입니다.
  • 규모의 다양성: 가벼운 0.6억 개의 매개변수를 가진 고밀도 모델부터 방대한 235억 개의 매개변수를 가진 희소 MoE 변형 모델까지 다양한 배포 시나리오에 대응합니다.
  • 확장된 컨텍스트 창: 대부분의 대형 변형은 최대 128K 토큰 컨텍스트를 지원하여 장문 문서, 코드베이스, 다중 모드 대화를 용이하게 합니다.
  • 다국어 폭: 36개 언어와 방언에 걸쳐 119조 개의 토큰을 사용하여 훈련을 받았으며, 진정한 글로벌 애플리케이션을 구축할 수 있습니다.

이러한 특성으로 인해 Qwen3는 코드 생성, 수학적 추론, 에이전트 작업의 벤치마크에서 최고의 성능을 보일 뿐만 아니라 실제 배포를 위한 유연하고 비용 효율적인 솔루션으로 자리매김하게 되었습니다.

Qwen3는 어떤 아키텍처를 사용합니까?

통합 추론 프레임워크

기존 LLM 생태계는 채팅 최적화 모델(예: GPT-4o)과 전문 추론 모델(예: QwQ-32B)을 분리하는 경우가 많습니다. Qwen3는 빠른 맥락 기반 "비사고" 추론과 심층적이고 다단계적인 "사고" 프로세스를 동일한 모델에 통합하여 이러한 구분을 허물었습니다. 모드 토큰 또는 API 플래그는 간단한 작업을 위한 가벼운 어텐션 계층을 트리거하거나 복잡한 쿼리를 위한 심층적이고 반복적인 추론 파이프라인을 트리거합니다.

전문가 혼합(MoE) 변형

일부 Qwen3 모델은 MoE 구조를 채택합니다. 이 구조에서는 네트워크가 수백 개의 전문가 하위 모듈로 구성되지만, 런타임에는 작업과 관련된 소수의 하위 모듈만 활성화됩니다. 이를 통해 추론 벤치마크에서 최첨단 정확도를 유지하면서도 가장 관련성이 높은 전문가만 각 토큰을 처리하므로 상당한 컴퓨팅 비용 절감 효과를 얻을 수 있습니다.

밀집 모델과 전문가 혼합 모델

효율성과 용량의 균형을 맞추기 위해 Qwen3 제품군은 0.6개의 고밀도 모델(1.7B, 4B, 8B, 14B, 32B, 30B 매개변수)과 3개의 MoE 변형(235B 활성 매개변수를 갖는 22B 및 XNUMXB 활성 매개변수를 갖는 XNUMXB)으로 구성됩니다. 고밀도 모델은 리소스가 제한된 환경에서 간소화된 추론을 제공하는 반면, MoE 아키텍처는 희소 활성화(sparse activation)를 활용하여 연산 비용의 선형적인 증가 없이 높은 용량을 유지합니다.

전문가 혼합(MoE) 아키텍처는 토큰당 네트워크 매개변수의 일부만 활성화함으로써 대규모 고밀도 모델의 메모리 및 계산 부담을 완화합니다. Qwen3는 두 가지 희소 변형을 제공합니다.

  • 30B-매개변수 MoE (토큰당 3B개의 활성화된 매개변수)
  • 235B-매개변수 MoE (토큰당 22B개의 활성화된 매개변수)

이러한 희소형 제품군은 벤치마크에서 동급의 고밀도 제품군과 동등하거나 그 이상의 성능을 제공하는 동시에 추론 비용을 절감합니다. 이는 특히 실시간 애플리케이션 및 대규모 배포에 매우 중요합니다. 알리바바의 내부 테스트 결과, MoE 변형 모델은 Cerebras의 웨이퍼 스케일 엔진과 같은 특수 하드웨어에서 최대 60배 빠른 추론 속도를 달성하는 것으로 나타났습니다.

사고 모드와 비사고 모드

Qwen3의 혁신적인 특징은 듀얼 모드 디자인입니다. 사고 모드 복잡하고 여러 단계로 구성된 추론 작업의 경우 무사고 모드 신속하고 상황에 맞는 대응을 위해. Qwen3는 별도의 전문 모델을 유지하는 대신, 두 기능을 통합 아키텍처로 통합합니다. 이는 동적 예산 메커니즘에 대한 생각추론 중에 계산 리소스를 적응적으로 할당하여 모델이 입력 복잡도에 따라 지연 시간과 추론 깊이를 유연하게 조절할 수 있도록 합니다.


Qwen3은 어떻게 작동하나요?

동적 모드 전환

프롬프트를 수신하면 Qwen3는 미리 정의된 임계값을 기준으로 필요한 추론 복잡도를 평가합니다. 간단한 쿼리는 비사고 모드를 트리거하여 밀리초 단위로 응답을 생성하는 반면, 수학적 증명이나 전략 계획과 같은 복잡한 멀티홉 작업은 사고 모드를 활성화하여 필요에 따라 추가 변환기 계층과 어텐션 헤드를 할당합니다. 개발자는 채팅 템플릿이나 API 매개변수를 통해 모드 전환 트리거를 맞춤 설정하여 특정 애플리케이션에 맞춰 사용자 경험을 조정할 수도 있습니다.

  • 비사고 모드: 최소한의 레이어/전문가 호출을 할당하여 지연 시간과 처리량을 최적화합니다.
  • 사고 모드: 계산 그래프를 동적으로 확장하여 멀티홉 추론과 내부 하위 질문 체이닝을 가능하게 합니다.
  • 적응형 스위칭: 쿼리의 복잡성으로 인해 추가 추론 단계가 필요한 경우 모델은 추론 중간에 자율적으로 모드 사이를 전환할 수 있습니다.

추론 효율성 및 지연 시간

Qwen3-32B는 Cerebras Systems와 같은 하드웨어 파트너와의 협력을 통해 실시간 추론 성능을 구현합니다. Cerebras 추론 플랫폼의 벤치마크 결과는 복잡한 추론 작업에 대해 1.2초 미만의 응답 시간을 보여주며, 이는 DeepSeek R60 및 OpenAI o1-mini와 같은 유사 모델보다 최대 3배 빠릅니다. 이처럼 지연 시간이 짧은 성능은 고객 지원 챗봇부터 실시간 의사 결정 지원 시스템에 이르기까지, 대화형 환경에서 프로덕션급 에이전트와 부조종사의 역량을 극대화합니다.


배포 및 접근성

오픈소스 릴리스 및 통합

28년 2025월 3일, 알리바바는 Apache 2.0 라이선스로 Qwen3를 공식 출시하여 GitHub 및 Hugging Face에서 가중치, 코드 및 문서에 대한 무제한 액세스를 제공했습니다. 출시 후 몇 주 만에 QwenXNUMX 제품군은 Ollama, LM Studio, SGLang, vLLM과 같은 주요 LLM 플랫폼에 배포 가능해져 전 세계 개발자와 기업의 로컬 추론을 간소화했습니다.

유연한 형식 및 양자화 지원

고처리량 데이터센터 추론부터 저전력 에지 디바이스까지 다양한 배포 시나리오를 수용하기 위해 Qwen3는 GPT 생성 통합 형식, 활성화 인식 양자화, 그리고 일반적인 학습 후 양자화를 포함한 여러 가중치 형식을 지원합니다. 초기 연구에 따르면 48비트 학습 후 양자화는 경쟁력 있는 성능을 유지하지만, 12비트의 매우 낮은 정밀도는 정확도 저하를 초래하여 효율적인 LLM 압축에 대한 향후 연구 과제를 제시합니다.


성능 및 벤치마킹

순위표 순위

6년 2025월 3일 기준 LiveBench 순위표에 따르면, 플래그십 모델인 Qwen235-22B-A7B는 오픈소스 LLM 부문에서 최고 순위를 기록하며, 개방형 및 폐쇄형 모델 모두에서 전체 3위를 차지했고, 명령어 추종 과제에서도 최고 점수를 달성했습니다. 이러한 성과는 Qwen4가 GPT-1 및 DeepSeek RXNUMX과 같은 독점 모델과 동등한 경쟁력을 갖추고 있음을 보여줍니다.

비교 평가

TechCrunch와 VentureBeat의 독립적인 평가는 Qwen3의 코딩 및 수학 벤치마크에서 탁월한 성능을 강조합니다. DeepSeek R1, OpenAI의 o1, Google의 Gemini 2.5-Pro와 같은 주요 솔루션과 비교했을 때, Qwen3-235B-A22B는 알고리즘 합성부터 형식적 증명 생성까지 다양한 작업에서 동등하거나 향상된 결과를 보여줍니다.

qwen3


특수 변형: Qwen3-Math 및 QwenLong-L1

Qwen3-수학

Qwen3-Math는 수학적 추론 과제를 위해 설계된 특수 변형 모델입니다. 중국어와 영어 수학 문제 해결을 위해 사고 연쇄(CoT)와 도구 통합 추론(TIR)을 모두 지원합니다. TIR은 모델의 정밀한 계산, 기호 조작 및 알고리즘 처리 능력을 향상시켜 높은 계산 정밀도가 요구되는 과제의 난제를 해결합니다.

퀀롱-L1

QwenLong-L1은 점진적인 맥락 확장을 통해 단기 맥락의 대규모 추론 모델을 장기 맥락 시나리오에 적응시키는 프레임워크입니다. 워밍업 지도 학습 미세 조정 단계를 활용하여 강력한 초기 정책을 수립하고, 이후 커리큘럼 기반 단계적 강화 학습 기법을 통해 정책 진화를 안정화합니다. 이러한 접근 방식은 정보 집약적인 환경에서도 강력한 추론을 가능하게 합니다.

도전과 앞으로의 방향

환각과 강건함

강력한 정량적 지표에도 불구하고, Qwen3는 사실 또는 맥락적으로 모호한 상황에서 간헐적으로 "환각"을 보입니다. 예비 분석 결과 외부 지식 기반을 통합할 때 환각 발생률이 15~20% 감소하는 것으로 나타났기 때문에, 지속적인 연구는 사실 정확도를 높이기 위해 검색 증강 생성 및 접지 메커니즘을 개선하는 데 중점을 두고 있습니다.

양자화 및 에지 배포

적절한 양자화는 Qwen3의 핵심 기능을 보존하지만, 극한의 압축은 여전히 ​​어려운 과제입니다. 스마트폰, IoT 센서, 임베디드 시스템과 같이 제약이 있는 기기에서 정교한 AI를 민주화하기 위해서는 혼합 정밀도 학습, 하드웨어 기반 양자화 알고리즘, 그리고 효율적인 트랜스포머 아키텍처의 발전이 필수적입니다.


결론

Qwen3의 개발은 대화의 유창성과 심층 추론을 연결하는 통합적이고 동적으로 적응 가능한 LLM 아키텍처로의 패러다임 전환을 반영합니다. Alibaba의 Qwen 팀은 가중치를 오픈소스로 제공하고 클라우드 추론부터 온디바이스 가속까지 다양한 배포 옵션을 제공함으로써 AI 분야의 글로벌 협업과 혁신을 촉진해 왔습니다. 연구 커뮤니티가 모델 견고성, 양자화, 다중 모드 통합 등 남은 과제들을 해결해 나가는 가운데, Qwen3는 산업 전반의 차세대 지능형 시스템을 위한 기반 플랫폼으로 자리매김할 것입니다.

시작 가이드

CometAPI는 ChatGPT 제품군을 포함한 수백 개의 AI 모델을 일관된 엔드포인트로 통합하는 통합 REST 인터페이스를 제공하며, 내장된 API 키 관리, 사용 할당량 및 청구 대시보드를 통해 여러 공급업체 URL과 사용자 인증 정보를 일일이 관리할 필요가 없습니다.

개발자는 액세스할 수 있습니다 퀀 3 API를 통해 코멧API시작하려면 Playground에서 모델의 기능을 탐색하고 다음을 참조하세요. API 가이드 자세한 내용은 CometAPI를 참조하세요. 접속하기 전에 CometAPI에 로그인하고 API 키를 발급받았는지 확인하세요.

더 보기

하나의 API로 500개 이상의 모델

최대 20% 할인