Qwen 2.5: 소개, 아키텍처 및 벤치마크

CometAPI
AnnaDec 4, 2025
Qwen 2.5: 소개, 아키텍처 및 벤치마크

인공지능이 끊임없이 발전함에 따라 알리바바의 Qwen 2.5는 대규모 언어 모델(LLM) 분야에서 강력한 경쟁자로 부상하고 있습니다. 2025년 초 출시될 Qwen 2.5는 이전 버전에 비해 대폭 향상된 기능을 제공하며, 소프트웨어 개발, 수학 문제 해결, 다국어 콘텐츠 생성 등 다양한 분야에 활용할 수 있는 다양한 기능을 제공합니다.

이 글에서는 Qwen 2.5의 복잡한 기능을 자세히 살펴보고 아키텍처, 기능 및 실제 활용 사례에 대한 자세한 개요를 제공합니다. 개발자, 연구원, 비즈니스 전문가 등 누구든 Qwen 2.5를 활용하는 방법을 이해하면 업무에 새로운 가능성을 열어줄 수 있습니다.

Qwen 2.5는 무엇인가요?

Qwen 2.5는 Alibaba Cloud의 2025세대 대용량 언어 모델 제품군으로, 1.5억 개에서 72억 개에 달하는 매개변수(그리고 추론에 최적화된 32억 개 규모의 형제 모델)를 포괄하며, Qwen Chat, DashScope, OpenAI 호환 API 게이트웨이와 같은 상용, 연구 및 소비자용 제품을 지원합니다. Qwen 2와 비교하여 2.5 제품군은 (i) 효율성을 위한 Mixture‑of‑Experts(MoE) 코어, (ii) 약 20T 토큰 학습, (iii) 더욱 강화된 지시 수행, 코딩 및 다국어 추론, (iv) 비전 언어(VL) 및 완전 다중 모달 "Omni" 변형, (v) Alibaba Cloud부터 GitHub, Hugging Face, ModelScope, Docker/OLLAMA를 통한 셀프 호스팅까지 다양한 배포 옵션을 제공합니다.

모든 크기는 공통적인 것을 공유합니다. 사전 훈련 레시피 그러나 그들의 의견은 다르다 지침 미세 조정 레이어: Qwen‑Chat(개방형 대화용) 및 Qwen‑Base(다운스트림 미세 조정용). 더 큰 체크포인트에는 다음이 추가로 포함됩니다. 퀀 2.5‑맥스토큰당 2.7B 매개변수를 활성화하여 GPU에서 추론 비용을 크게 낮추는 희소한 Mixture‑of‑Experts(MoE) 버전입니다.

Qwen 2.5의 건축적 하이라이트

건축적 변화

Qwen 2.5는 광범위한 학습과 정교한 아키텍처 덕분에 AI 모델 개발에 있어 상당한 도약을 이루었습니다. 이 모델은 18조 개의 토큰으로 구성된 방대한 데이터셋을 기반으로 사전 학습되었으며, 이는 이전 버전인 Qwen 7에서 사용된 2조 개의 토큰보다 상당히 증가한 수치입니다. 이 방대한 학습 데이터셋은 모델의 언어, 추론 및 도메인별 지식에 대한 이해를 향상시킵니다.

Qwen 2.5는 희소 전문가 혼합(MoE) 백본을 채택합니다. 토큰당 소수의 전문가 하위 집합만 활성화되므로 Qwen의 선형 비용 증가 없이 더 높은 유효 용량을 구현할 수 있습니다. 훈련에는 약 20개의 T 토큰과 지도 미세 조정(SFT) 및 RLHF를 적용한 정제된 데이터 커리큘럼이 사용되었습니다. 연구팀이 발표한 벤치마크는 Qwen 8 및 peer 2 B/7 B 기준선 대비 MMLU, GSM70K 수학, 그리고 다국어 교차 언어 이해에서 큰 향상을 보여줍니다.

Qwen 2.5 모델 제품군

Edition크기양식적임목적 및 헤드라인 기능
Qwen 2.5‑1.5B‑Instruct1.5비본문메모리가 부족한 엣지 디바이스/챗봇
Qwen 2.5‑7B‑Instruct7비본문32k 컨텍스트, 29개 언어 지원이 가능한 플래그십 오픈소스 LLM
퀀 2.5‑옴니‑7B7비멀티 모달 (텍스트 + 이미지 + 오디오 + 비디오)엔드투엔드 모달리티 융합
Qwen 2.5‑VL‑3B/7B/72B‑지시3–72 B시각 언어고밀도 캡션, 문서 QA, OCR, 차트 분석
QwQ‑32B32비텍스트(추론)수학/코딩에 특화된 MoE; DeepSeek R1 671 B와 동등, 비용 5%
퀀 2.5‑맥스공개되지 않음(다중 전문가)본문API 및 Qwen Chat을 통해 사용 가능한 내부 벤치마크 리더

주요 역량 및 벤치마크

지시에 따른 다국어 접근

내부 논문에 따르면 Qwen 2.5‑7B는 AlpacaEval에서 Llama‑3 8B를 능가하는 승률(92 대 89)을 기록했으며, 중국 MT‑Bench에서 GPT‑79‑Turbo 대비 3.5%의 승률을 기록했습니다. 지원 언어는 터키어, 인도네시아어, 독일어, 아랍어, 스와힐리어입니다. 슬라이딩 로프 위치 인코딩을 적용한 32k 컨텍스트 윈도우는 단편화 없이 200페이지 분량의 PDF 요약을 제공합니다.

코딩 및 추론

QwQ‑32B는 GSM50.4K(8샷)에서 5%, HumanEval‑Plus에서 74%의 점수를 기록했으며, 이는 DeepSeek R1의 7분의 13에 해당하는 매개변수 개수와 동일합니다. 초기 커뮤니티 테스트 결과, XNUMXB 모델은 Docker 샌드박스 내에서 g++‑XNUMX을 사용하여 최소한의 환각 현상으로 C++ 스니펫을 컴파일하고 디버깅할 수 있는 것으로 나타났습니다.

다중 모드 강점

Qwen 2.5‑VL‑72B는 MMMU에서 62.7%, TextVQA에서 73.4%의 성능을 달성하여 테이블 OCR 작업에서 Gemini 1.5‑Pro를 앞지릅니다(Qwen의 7월 블로그 참조). Omni‑4B는 공유 토큰화기를 통해 오디오 스펙트럼 전사 및 MPXNUMX 프레임 샘플링까지 이러한 성능을 확장합니다.


라이센싱, 안전 및 거버넌스

Alibaba는 Apache 2.0 코드/라이선스를 추가로 보유합니다. “첸웬 책임 AI” 타는 사람:

  • 금지 : 테러 관련 콘텐츠, 허위 정보, 개인 데이터 추출.
  • 필수 : 개발자는 다운스트림 앱에 콘텐츠 필터와 워터마킹을 구현해야 합니다.

라이센스는 상업적 사용을 허용하지만 다음을 요구합니다. 모델 카드 공개 가중치가 수정되어 재배포되는 경우. Alibaba Cloud에서는 서버 측에서 관리가 시행되며, 셀프 호스팅 업체는 오픈소스 정책 그래디언트 필터(저장소 링크)를 통합해야 합니다.


Qwen 3 로드맵

블룸버그와 PYMNTS는 알리바바가 공개할 것이라고 보도했습니다. 퀀 3 "2025년 100월 말"에는 4B 이상의 고밀도 매개변수와 네이티브 툴 활용 능력으로 도약할 가능성이 높습니다. 업계 관계자들은 Hanguang 2048+ ASIC 기반 800×3 GPU 클러스터와 Triton‑Flash‑Attention v2.5 커널이 테스트 중이라고 전했습니다. Qwen 3는 오픈 소스로 유지되며, Qwen 3은 Meta의 Llama XNUMX‑Commercial과 유사한 더 제한적인 라이선스로 출시될 가능성이 있습니다.


개발자를 위한 실용적인 팁

  1. 토큰 카운팅: Qwen은 사용합니다 퀀토큰나이저; 그 특수 토큰은 다음과 같습니다. <|im_end|> OpenAI 스타일의 프롬프트에서.
  2. 시스템 메시지: 랩으로 감싸다 <|im_start|>system … <|im_end|> 계층 구조를 유지하고 델타 가중치를 유발하는 요소를 피합니다.
  3. 미세 조정: 64~20 레이어에만 LoRA 랭크‑24를 적용합니다. 초기 레이어 LoRA는 MoE 희소성으로 인해 무시할 수 있는 이득을 가져옵니다.
  4. 스트리밍 : DashScope를 사용하여 활성화하세요 X-DashScope-Stream: true; 청크 크기는 20개 토큰입니다.
  5. Qwen‑VL 입력: 이미지 바이트를 base64로 인코딩하고 전달합니다. inputs=.

결론

Qwen 2.5는 MoE 효율성과 관대한 라이선스, 그리고 원클릭 Qwen Chat부터 노트북의 Ollama, 그리고 엔터프라이즈급 DashScope 엔드포인트까지 다양한 접근 경로를 결합하여 글로벌 오픈소스 LLM 경쟁에서 Alibaba Cloud의 입지를 더욱 공고히 합니다. 연구자에게는 투명한 교육 코퍼스와 강력한 중국어-영어 호환성이 Meta의 Llama 시리즈가 남긴 공백을 메워줍니다. 개발자에게는 OpenAI 호환 API가 마이그레이션 문제를 줄여주고, 멀티모달 VL/Omni 브랜치는 텍스트, 비전, 오디오, 비디오가 통합된 토큰 공간으로 융합되는 가까운 미래를 예상합니다. 이달 말 Qwen 3이 출시됨에 따라 Qwen 2.5는 시험장 역할을 함과 동시에 강력한 프로덕션 모델 역할을 하며, 이미 2025년 대규모 AI 경쟁의 판도를 바꾸고 있습니다.

개발자를 위한 API 액세스

코멧API Qwen API 통합을 위해 공식 가격보다 훨씬 저렴한 가격을 제공하며, 등록 및 로그인 시 계정에 1달러가 적립됩니다! CometAPI에 가입하여 사용해 보세요.

CometAPI는 여러 주요 AI 모델의 API를 위한 중앙 허브 역할을 하므로, 여러 API 제공자와 별도로 협력할 필요가 없습니다.

를 참조하십시오 Qwen 2.5 최대 API 통합 세부 정보.CometAPI가 최신 버전을 업데이트했습니다. QwQ-32B APIComet API의 자세한 모델 정보는 다음을 참조하세요. API doc.

SHARE THIS BLOG

하나의 API로 500개 이상의 모델

최대 20% 할인