MiniMax‑M1: 최초의 개방형 가중치 하이브리드 주의 추론 모델

CometAPI
AnnaJun 16, 2025
MiniMax‑M1: 최초의 개방형 가중치 하이브리드 주의 추론 모델

17월 XNUMX일, 상하이 AI 유니콘 MiniMax가 공식적으로 오픈소스화했습니다. 미니맥스‑M1세계 최초의 개방형 대규모 하이브리드 어텐션 추론 모델인 MiniMax‑M1은 Mixture‑of‑Experts(MoE) 아키텍처와 새로운 Lightning Attention 메커니즘을 결합하여 추론 속도, 초장기 컨텍스트 처리 및 복잡한 작업 성능에서 큰 향상을 제공합니다.

배경과 진화

기초 위에 건설하다 미니맥스-텍스트-01전문가 혼합(MoE) 프레임워크에 대한 집중력을 강화하여 학습 중 1만 토큰 컨텍스트, 추론 중 최대 4만 토큰 컨텍스트를 구현한 MiniMax-M1은 MiniMax-01 시리즈의 차세대 모델입니다. 이전 모델인 MiniMax-Text-01은 총 456억 개의 매개변수를 포함했으며, 토큰당 45.9억 개의 매개변수가 활성화되어 최상위 LLM과 동등한 성능을 보이는 동시에 컨텍스트 기능을 대폭 확장했습니다.

MiniMax‑M1의 주요 기능

  • 하이브리드 MoE + 라이트닝 어텐션: MiniMax‑M1은 총 매개변수가 456억 개이지만 토큰당 활성화되는 매개변수는 45.9억 개에 불과한 희소한 Mixture‑of‑Experts 디자인과 매우 긴 시퀀스에 최적화된 선형 복잡도 어텐션인 Lightning Attention을 결합합니다.
  • 초장문맥: 최대 지원 1억 XNUMX만 입력 토큰은 DeepSeek‑R128의 1K 제한보다 약 XNUMX배 더 크며, 이를 통해 방대한 문서에 대한 심층적 이해가 가능합니다.
  • 우수한 효율성: 100K 토큰을 생성할 때 MiniMax‑M1의 Lightning Attention은 DeepSeek‑R25에서 사용하는 컴퓨팅의 약 30~1%만 필요합니다.

모델 변형

  • 미니맥스‑M1‑40K: 1M 토큰 컨텍스트, 40K 토큰 추론 예산
  • 미니맥스‑M1‑80K: 1M 토큰 컨텍스트, 80K 토큰 추론 예산
    TAU 벤치 도구 사용 시나리오에서 40K 변형은 Gemini 2.5 Pro를 포함한 모든 개방형 가중치 모델보다 우수한 성능을 보이며 에이전트 기능을 입증했습니다.

교육 비용 및 설정

MiniMax-M1은 고급 수학적 추론부터 샌드박스 기반 소프트웨어 엔지니어링 환경에 이르기까지 다양한 작업에 걸쳐 대규모 강화 학습(RL)을 사용하여 종단 간 학습되었습니다. 새로운 알고리즘은 시스포 (정책 최적화를 위한 클리핑된 중요도 샘플링)은 토큰 수준 업데이트 대신 중요도 샘플링 가중치를 클리핑하여 학습 효율을 더욱 향상시킵니다. 이 접근 방식은 모델의 라이트닝 어텐션과 결합되어 512개의 H800 GPU에서 단 534,700주 만에 전체 RL 학습을 완료할 수 있었으며, 총 대여 비용은 XNUMX달러였습니다.

가용성 및 가격 결정

MiniMax-M1은 다음에서 출시됩니다. 아파치 2.0 오픈 소스 라이선스이며 다음을 통해 즉시 액세스할 수 있습니다.

  • GitHub 저장소모델 가중치, 교육 스크립트, 평가 벤치마크를 포함합니다.
  • 실리콘클라우드 호스팅은 40K 토큰("M1‑40K")과 80K 토큰("M1‑80K")의 두 가지 변형을 제공하며 전체 1M 토큰 퍼널을 활성화할 계획입니다.
  • 현재 가격은 다음과 같습니다. 백만당 4엔 입력을 위한 토큰 및 백만당 16엔 출력용 토큰이 제공되며, 기업 고객에게는 대량 할인 혜택이 제공됩니다.

개발자와 조직은 표준 API를 통해 MiniMax-M1을 통합하고, 도메인별 데이터를 세부적으로 조정하거나, 민감한 작업 부하에 대해 온프레미스로 배포할 수 있습니다.

작업 수준 성과

작업 범주강조상대 성능
수학과 논리AIME 2024: 86.0%> Qwen 3, DeepSeek‑R1; 폐쇄형 소스에 가까움
장문맥 이해통치자(4K–1M 토큰): 안정적인 최상위 계층4K 토큰 길이를 넘어서는 GPT‑128보다 성능이 뛰어납니다.
소프트웨어 공학SWE‑bench(실제 GitHub 버그): 56%개방형 모델 중 최고, 폐쇄형 모델 중 2위
에이전트 및 도구 사용TAU‑bench(API 시뮬레이션)62~63.5% 대 Gemini 2.5, Claude 4
대화 및 보조멀티챌린지: 44.7%Claude 4, DeepSeek‑R1과 일치합니다.
사실 QA심플QA: 18.5%향후 개선을 위한 영역

참고: 공식 MiniMax 공개 및 독립 뉴스 보고서의 백분율 및 벤치마크

MiniMax‑M1: 최초의 개방형 가중치 하이브리드 주의 추론 모델

기술 혁신

  1. 하이브리드 어텐션 스택: 번개 주의 효율성과 모델링 능력의 균형을 맞추기 위해 주기적 Softmax Attention(2차이지만 표현력이 더 풍부함)과 섞인 레이어(선형 비용)를 사용합니다.
  2. 스파스 MoE 라우팅: 전문가 모듈 32개, 각 토큰은 전체 매개변수의 약 10%만 활성화하여 추론 비용을 줄이는 동시에 용량을 보존합니다.
  3. CISPO 강화 학습: 학습 신호에서 드물지만 중요한 토큰을 유지하여 RL 안정성과 속도를 가속화하는 새로운 "클립된 IS 가중치 정책 최적화" 알고리즘입니다.

MiniMax‑M1의 개방형 릴리스는 모든 사람을 위한 초장기 컨텍스트와 고효율 추론의 가능성을 열어주어 연구와 배포 가능한 대규모 AI 간의 격차를 해소합니다.

시작 가이드

CometAPI는 ChatGPT 제품군을 포함한 수백 개의 AI 모델을 일관된 엔드포인트로 통합하는 통합 REST 인터페이스를 제공하며, 내장된 API 키 관리, 사용 할당량 및 청구 대시보드를 통해 여러 공급업체 URL과 사용자 인증 정보를 일일이 관리할 필요가 없습니다.

시작하려면 모델의 기능을 탐색하세요. 운동장 그리고 상담하십시오 API 가이드 자세한 내용은 CometAPI를 참조하세요. 접속하기 전에 CometAPI에 로그인하고 API 키를 발급받았는지 확인하세요.

최신 통합 MiniMax‑M1 API가 곧 CometAPI에 등장할 예정이므로 계속 지켜봐 주세요! MiniMax‑M1 모델 업로드를 마무리하는 동안 다른 모델을 살펴보세요. 모델 페이지 또는 다음을 시도해 보세요. AI 놀이터. MiniMax의 CometAPI 최신 모델은 다음과 같습니다. Minimax ABAB7-미리보기 API미니맥스 비디오-01 API ,참조:

MiniMax‑M1: 최초의 개방형 가중치 하이브리드 주의 추론 모델

더 보기

하나의 API로 500개 이상의 모델

최대 20% 할인