MiniMax-M1: 初のオープンウェイト・ハイブリッド・アテンション推論モデル

CometAPI
AnnaJun 19, 2025
MiniMax-M1: 初のオープンウェイト・ハイブリッド・アテンション推論モデル

17月XNUMX日、上海のAIユニコーン企業MiniMaxが正式にオープンソース化しました。 ミニマックスM1世界初のオープンウェイト大規模ハイブリッドアテンション推論モデル。Mixture-of-Experts(MoE)アーキテクチャと新しいLightning Attentionメカニズムを組み合わせることで、MiniMax-M1は推論速度、超長コンテキスト処理、複雑なタスクパフォ​​ーマンスを大幅に向上させます。

背景と進化

の基盤の上に構築 ミニマックステキスト01MiniMax-M1は、Mixture-of-Experts(MoE)フレームワークに高速アテンションを導入し、学習時に4万トークン、推論時に最大1万トークンのコンテキストを実現したMiniMax-01シリーズの次世代モデルです。前身モデルであるMiniMax-Text-01は、合計456億個のパラメータとトークンあたり45.9億個のアクティブパラメータを備え、トップクラスのLLMと同等の性能を発揮しながら、コンテキスト機能を大幅に拡張しました。

MiniMax-M1の主な特徴

  • ハイブリッドMoE + Lightning AttentionMiniMax-M1 は、スパースな Mixture-of-Experts 設計 (合計 456 億のパラメーターですが、トークンごとにアクティブ化されるのは 45.9 億のみ) と、非常に長いシーケンスに最適化された線形複雑度のアテンションである Lightning Attention を融合しています。
  • 超ロングコンテキスト: までサポート 1億XNUMX万 入力トークンはDeepSeek-R128の1K制限の約XNUMX倍であり、膨大な文書の深い理解が可能になります。
  • 優れた効率: 100万トークンを生成する場合、MiniMax-M1のLightning Attentionでは、DeepSeek-R25で使用される計算量の約30~1%しか必要としません。

モデルバリアント

  • ミニマックスM1-40K: 1万トークンのコンテキスト、40万トークンの推論予算
  • ミニマックスM1-80K: 1万トークンのコンテキスト、80万トークンの推論予算
    TAU ベンチのツール使用シナリオでは、40K バリアントが、Gemini 2.5 Pro を含むすべてのオープンウェイト モデルよりも優れたパフォーマンスを発揮し、そのエージェント機能を実証しました。

トレーニング費用とセットアップ

MiniMax-M1は、高度な数学的推論からサンドボックスベースのソフトウェアエンジニアリング環境まで、多様なタスクにわたって、大規模強化学習(RL)を用いてエンドツーエンドで学習されました。新しいアルゴリズムは、 CISPO (政策最適化のためのクリップド重要度サンプリング)は、トークンレベルの更新ではなく、重要度サンプリングの重みをクリップすることで、学習効率をさらに向上させます。このアプローチとモデルの超高速アテンションを組み合わせることで、512基のH800 GPUによる完全なRL学習をわずか534,700週間で完了し、総レンタル費用はXNUMXドルでした。

可用性と価格

MiniMax-M1は、 アパッチ 2.0 オープンソースライセンスで、以下の方法ですぐにアクセスできます。

  • GitHubリポジトリモデルの重み、トレーニング スクリプト、評価ベンチマークなどが含まれます。
  • シリコンクラウド ホスティングでは、40Kトークン(「M1-40K」)と80Kトークン(「M1-80K」)の1つのバリエーションが提供されており、XNUMX万トークンファンネル全体を有効にする予定です。
  • 現在設定されている価格は 4万あたりXNUMX円 入力用のトークンと 16万あたりXNUMX円 出力ごとにトークンが提供され、エンタープライズ顧客には数量割引が適用されます。

開発者や組織は、標準 API を介して MiniMax-M1 を統合し、ドメイン固有のデータに基づいて微調整したり、機密性の高いワークロード用にオンプレミスで展開したりできます。

タスクレベルのパフォーマンス

タスクカテゴリ特徴相対的なパフォーマンス
数学と論理AIME 2024: 86.0%> Qwen 3、DeepSeek-R1; ほぼクローズドソース
長文理解ルーラー(Kトークン4枚、Mトークン1枚):安定したトップティア4Kトークン長を超えるとGPT-128を上回る
ソフトウエアエンジニアリングSWEベンチ(実際のGitHubバグ): 56%オープンモデルの中では最高、クローズドモデルではトップに次ぐ
エージェントとツールの使用TAUベンチ(APIシミュレーション)62–63.5% vs. ジェミニ 2.5、クロード 4
ダイアログとアシスタントマルチチャレンジ:44.7%クロード4、DeepSeek-R1にマッチ
ファクトQAシンプルQA:18.5%今後の改善点

注:パーセンテージとベンチマークはMiniMaxの公式開示と独立したニュース報道によるものです

MiniMax-M1: 初のオープンウェイト・ハイブリッド・アテンション推論モデル

技術革新

  1. ハイブリッドアテンションスタック: 雷注意 効率とモデリング能力のバランスをとるために、周期的な Softmax Attention (2 次だがより表現力がある) とインターリーブされたレイヤー (線形コスト)。
  2. スパースMoEルーティング: 32 個のエキスパート モジュール。各トークンは合計パラメータの約 10% のみをアクティブ化するため、容量を維持しながら推論コストが削減されます。
  3. CISPO強化学習: 学習信号内の希少だが重要なトークンを保持し、RL の安定性と速度を向上させる新しい「Clipped IS-weight Policy Optimization」アルゴリズム。

MiniMax-M1 のオープンウェイトリリースにより、超長期コンテキストの高効率推論を誰でも実行できるようになり、研究と展開可能な大規模 AI の間のギャップが埋められます。

スタートガイド

CometAPIは、ChatGPTファミリーを含む数百のAIモデルを一貫したエンドポイントに集約する統合RESTインターフェースを提供します。APIキー管理、使用量制限、課金ダッシュボードが組み込まれているため、複数のベンダーURLと認証情報を管理する手間が省けます。

まず、モデルの機能を調べてみましょう。 プレイグラウンド そして相談する APIガイド 詳細な手順についてはこちらをご覧ください。アクセスする前に、CometAPIにログインし、APIキーを取得していることを確認してください。

最新の統合MiniMax-M1 APIはまもなくCometAPIに登場しますので、お楽しみに!MiniMax-M1モデルのアップロードが完了するまで、他のモデルもご覧ください。 モデルページ または、 AI プレイグラウンドMiniMaxのCometAPIの最新モデルは Minimax ABAB7 プレビュー API および ミニマックスビデオ-01 API 参照:

MiniMax-M1: 初のオープンウェイト・ハイブリッド・アテンション推論モデル

SHARE THIS BLOG

1つのAPIで500以上のモデル

最大20%オフ