미니맥스 M2 는 Teledyne LeCroy 오실로스코프 및 LSA-XNUMX 시리즈 임베디드 신호 분석기가 오픈 소스, 에이전트 네이티브 MiniMax에서 출시한 대규모 언어 모델(LLM) 2025 년 10 월 27 일. 이는 명시적으로 설계되었습니다. 코딩 및 에이전트 워크플로 (도구 호출, 다단계 자동화), 우선 순위 지정 낮은 대기 시간 및 비용 효율적인 강력한 추론 능력과 도구 활용 능력을 제공합니다.
주요 기능
하이라이트 - 코딩 전문화, 에이전트 워크플로, 낮은 활성 매개변수 풋프린트, 긴 컨텍스트 지원, OpenAI 호환 API. MiniMax 위치 미니맥스 M2 등 빠르고 배포하기 쉬운 MoE 모델 다단계 에이전트, 코드 생성 및 복구, 터미널/IDE 워크플로, 도구 호출을 위해 설계되었습니다.
주요 내용(빠른 요약):
- 건축물: 매우 큰 총 매개변수 수와 작은 전문가 혼합(MoE) 활성화 전달 패스당 매개변수 세트.
- 활성화 발자국: ~10억 개의 활성 매개변수 (토큰당)
- 총 매개변수(보고됨): 사이에 보고됨 ~200B – 230B 출처/측정항목에 따라(참조 기술적 세부 사항).
- 컨텍스트 창: 기업 규모의 장기적 맥락 204,800 토큰 최대 맥락.
- 기본 모달리티: 텍스트(도구 호출/함수 호출 지원).
- 에이전트 네이티브: 다단계 도구 호출(셸, 브라우저, 파이썬 인터프리터, MCP 도구)을 위해 설계되었습니다.
- 코딩에 집중하다: 다중 파일 편집, 실행-수정 루프 및 CI/IDE 작업에 최적화되었습니다.
기술 세부 정보(아키텍처 및 사양)
건축학 - 전문가 혼합(MoE): 미니맥스 M2 API는 MoE 전략을 사용하므로 모델이 다음을 가질 수 있습니다. 매우 큰 총 매개변수 수 추론 단계당 일부만 활성화합니다. 이를 통해 개선된 결과를 얻을 수 있습니다. 컴퓨팅 효율성, 처리량및 토큰당 비용 대화형 에이전트와 코딩 루프를 위한 것입니다.
정밀도 및 양자화 — 모델 파일과 공급자 스택은 FP32/BF16 및 FP8 포맷과 여러 양자화된 빌드(세이프텐서, FP8/E4M3 등)를 나열하여 로컬 배포와 효율성 간의 균형을 가능하게 합니다.
컨텍스트 및 I/O — 배포된 공급자가 게시합니다 204,800 토큰 컨텍스트 지원 및 큰 최대 출력 설정. M2는 텍스트 전용 현재로서는 (중국의 많은 오픈급 릴리스는 텍스트/에이전트 기능을 강조했지만 멀티모달은 다른 릴리스의 영역으로 남아 있음)
런타임 권장 사항 / 특별 지침 — 미니맥스 M2 API는 다음을 사용합니다. “엇갈린 사고” 모델의 내부 추론을 래핑하는 출력 형식 <think>...</think> 블록. MiniMax는 사고 내용을 그대로 유지하고 이를 과거 맥락으로 다시 전달하여 다중 턴 에이전트 워크플로의 성능을 보존하도록 요청했습니다.
벤치마크 성능
복합 인텔리전스 및 에이전트 벤치마크 — 인공 분석 보고서에 따르면 독립적인 벤치마킹이 가능합니다. MiniMax-M2는 개방형 중량 모델 중 동급 최고의 지능 지수를 달성했습니다., 그리고 그 중 순위 최고의 오픈소스 모델 특히 복합 지능 측정 항목에 대해 도구 사용, 지침 따르기 및 에이전트 작업. 인공 분석은 모델의 효율성 (활성 매개변수가 매우 적음)이 순위의 주요 요인입니다.

미니맥스 M2 쇼 코딩 및 에이전트 제품군에서 강력한 결과 (Terminal-Bench, SWE-Bench, BrowseComp, LiveCodeBench 유형의 작업) 아키텍처와 활성화 예산이 계획 → 실행 → 검증 루프(컴파일/실행/테스트 사이클, 다중 파일 편집 및 도구 체인)에 유리합니다.

비교: MiniMax M2와 다른 현대 모델
오픈 웨이트 피어(DeepSeek, Qwen3, Kimi 등)에 대하여 — 미니맥스 M2 로 제시된다 특히 효율적이다 활성 매개변수 예산(≈10B)으로 강력한 지능 대 활성 매개변수 비율을 제공합니다. 다른 개방형 모델은 활성 매개변수 수가 더 많을 수 있지만 총 매개변수는 비슷하거나 더 높을 수 있습니다.
상업적 프런티어 모델(OpenAI/Anthropic/Google/xAI)에 대하여 — 보고 장소 M2 가장 상위의 상업 모델보다 아래 일부 일반적인 측정 항목에 대해서는 경쟁력이 있거나 앞서있다 가격대비 많은 에이전트 및 코딩 벤치마크에서 우수한 성적을 거두었습니다.
비용 및 속도 균형 — 토큰당 비용은 인류학적 클로드 소네의 8%에 불과하고 속도는 약 두 배 빠릅니다.
제한 사항 및 위험
제한 사항 — 장황함(토큰 사용량 높음), 텍스트 전용 모달리티, 작업별 약점그리고 일반적인 LLM 위험(환각, 과신, 데이터 세트 편향)이 있습니다. 인공 분석과 MiniMax는 모두 M2가 에이전트 및 코딩 워크플로에서는 탁월한 성능을 보이지만, 특정 개방형 작업에서는 일부 대규모 일반화 모델보다 성능이 떨어질 수 있음을 지적합니다. MoE 기반이기 때문에 배포 고려 사항 (전문가 라우팅, 양자화, 추론 프레임워크)가 중요합니다.
운영상의 주의 사항 — 미니맥스 M2 의 인터리브된 사고 형식에는 특수한 유지가 필요합니다. <think>...</think> 최상의 성능을 위해 기록 전반에 걸쳐 토큰을 사용합니다. 해당 콘텐츠를 제거하면 에이전트의 동작이 저하될 수 있습니다. 또한 미니맥스 M2 장황하고 작업당 비용은 두 가지 모두의 함수입니다. 토큰당 가격 및 생성된 총 토큰.
주요 사용 사례
- 에이전트 오케스트레이션 및 긴 워크플로 — 다단계 도구 체인, 탐색→검색→실행 주기, 오류 복구및 증거 추적성 에이전트를 통해 실행됨.
- 개발자 생산성 및 코딩 지원 — 컴파일-실행-테스트 루프, 다중 파일 편집, 테스트 검증된 수리및 IDE 통합 (Claude Code, Cursor, Codex, Grok CLI 예시가 있습니다).
- 고처리량 에이전트 함대/생산 봇 — 어디에 추론당 비용 및 동시성 중요한 점은 M2의 활성화된 매개변수 발자국이 낮아 인프라 비용을 줄일 수 있다는 것입니다.
전화하는 방법 미니맥스 M2 CometAPI의 API
minimax-m2 CometAPI의 API 가격 책정, 공식 가격 대비 20% 할인:
- 입력 토큰: $0.24M 토큰
- 출력 토큰: $0.96/M 토큰
필수 단계
- 에 로그인 코메타피닷컴. 아직 당사 사용자가 아니시라면, 먼저 등록해 주시기 바랍니다.
- 에 로그인하여 CometAPI 콘솔.
- 인터페이스의 액세스 자격 증명 API 키를 받으세요. 개인 센터의 API 토큰에서 "토큰 추가"를 클릭하고 토큰 키(sk-xxxxx)를 받아 제출하세요.

사용 방법
- API 요청을 전송하려면 "minimax-m2" 엔드포인트를 선택하고 요청 본문을 설정하세요. 요청 메서드와 요청 본문은 웹사이트 API 문서에서 확인할 수 있습니다. 웹사이트에서는 사용자의 편의를 위해 Apifox 테스트도 제공합니다.
- 바꾸다 귀하 계정의 실제 CometAPI 키를 사용합니다.
- 질문이나 요청을 콘텐츠 필드에 입력하세요. 모델이 이에 응답합니다.
- . API 응답을 처리하여 생성된 답변을 얻습니다.
CometAPI는 완벽한 호환성을 갖춘 REST API를 제공하여 원활한 마이그레이션을 지원합니다. 주요 세부 정보는 다음과 같습니다. API doc:
- 기본 URL: https://api.cometapi.com/v1/chat/completions
- 모델명 : "
minimax-m2" - 입증:
Bearer YOUR_CometAPI_API_KEY머리글 - 컨텐츠 타입:
application/json.
API 통합 및 예제
아래는 Python CometAPI API를 통해 GLM‑4.6을 호출하는 방법을 보여주는 스니펫입니다. <API_KEY> 및 <PROMPT> 따라서:
import requests
API_URL = "https://api.cometapi.com/v1/chat/completions"
headers = {
"Authorization": "Bearer <API_KEY>",
"Content-Type": "application/json"
}
payload = {
"model": "minimax-m2",
"messages": [
{"role": "system", "content": "You are a helpful assistant."},
{"role": "user", "content": "<PROMPT>"}
],
"max_tokens": 512,
"temperature": 0.7
}
response = requests.post(API_URL, json=payload, headers=headers)
print(response.json())
