モデル料金エンタープライズ
500以上のAI Model API、オールインワンAPI。CometAPIで。
モデルAPI
開発者
クイックスタートドキュメントAPI ダッシュボード
会社
会社概要エンタープライズ
リソース
AIモデルブログ変更履歴サポート
利用規約プライバシーポリシー
© 2026 CometAPI · All rights reserved
Home/Models/Aliyun/qwen3 max
Q

qwen3 max

入力:$0.8/M
出力:$3.2/M
- qwen3-max: Alibaba Tongyi Qianwen チームの最新の Qwen3-Max モデルで、シリーズの性能の頂点として位置付けられています。 - 🧠 Powerful Multimodal and Inference: 超長文脈(最大128kトークン)とマルチモーダル入力をサポートし、複雑な推論、コード生成、翻訳、クリエイティブなコンテンツに優れています。 - ⚡️ Breakthrough Improvement: 複数の技術指標で大幅に最適化、より高速な応答、知識のカットオフは2025年まで、エンタープライズレベルの高精度AIアプリケーションに適しています。
商用利用
Playground
概要
機能
料金プラン
API
バージョン

Qwen 3-max の技術仕様

項目値 / 注記
正式モデル名 / バージョンqwen3-max-2026-01-23(Qwen3-Max;「Thinking」バリアントあり)。
パラメータ規模> 1兆パラメータ(兆規模フラッグシップ)。
アーキテクチャQwen3 ファミリー設計。効率化のために Qwen3 ラインアップ全体で Mixture-of-Experts(MoE)手法を採用。専用の「Thinking」/推論モードを記述。
学習データ量報告値 約36兆トークン(事前学習ミックスは Qwen3 技術資料に記載)。
ネイティブコンテキスト長ネイティブで 32,768 トークン。検証済み手法(例:RoPE/YaRN)により、実験ではさらに長いウィンドウへ拡張可能と報告。
一般的にサポートされるモダリティQwen3 ファミリーにおけるテキストおよびマルチモーダル拡張(画像編集/ビジョンの派生が存在)。Qwen3-Max は推論におけるテキスト+エージェント/ツール統合に注力。
モードThinking(段階的推論/ツール使用)と Non-thinking(高速インストラクト)。スナップショットはビルトインツールを明示的にサポート。

Qwen3-Max とは

Qwen3-Max は Qwen3 世代の高性能ティアであり、複雑な推論、ツール/エージェントのワークフロー、Retrieval-Augmented Generation(RAG)、長いコンテキストのタスクに最適化された推論特化モデルです。「Thinking」設計により、必要に応じて段階的な Chain-of-Thought(CoT)スタイルの出力が可能で、Non-thinking モードは低レイテンシな応答を提供します。2026-01-23 のスナップショットでは、ビルトインのツールコールとエンタープライズ推論対応が強調されています。

Qwen3-Max の主な機能

  • 最先端の推論(“Thinking” モード): ステップごとのトレースを生成し、多段推論の精度を高めることを狙った推論/「思考」モード。
  • 兆パラメータ規模: 推論、コード、アライメント感度の高いタスク全般で性能向上を狙うフラッグシップ規模。
  • 長コンテキスト(ネイティブ 32K): ネイティブ 32,768 トークン。特定設定でより長いウィンドウに対応可能と報告。長文書、複数文書の要約、大規模エージェント状態に適合。
  • エージェント/ツール統合: 外部ツールの呼び出し、検索やコード実行の要否判断、エンタープライズタスク向けの多段エージェントフローのオーケストレーションに最適化。
  • 多言語対応とコーディングの強み: 大規模多言語コーパスで学習され、プログラミング/コード生成タスクで高い性能を発揮。

Qwen3-Max のベンチマーク性能

qwen3 max

Qwen3-Max と主要同世代モデルの比較

  • Versus GPT-5.2 (OpenAI) — ツール使用を有効化した際の多段推論系ベンチマークで、Qwen3-Max-Thinking は競合的とする報道/プレス比較が存在;絶対順位はベンチマークや手順により変動。Qwen の価格/トークン階層はエージェント/RAG の重用において競争力を狙った設計と見られる。
  • Versus Gemini 3 Pro (Google) — 一部の公開比較(HLE)では、特定の推論評価で Qwen3-Max-Thinking が Gemini 3 Pro を上回る例が示される;ただし、結果はツール有効化や手法に大きく依存。
  • Versus Anthropic (Claude) and other providers — 報道では、Qwen3-Max-Thinking が特定の推論・多領域ベンチマークのサブセットで Anthropic/Claude の一部バリアントに匹敵/凌駕するとの報告;独立ベンチマーク群ではデータセットにより結果はまちまち。

要点: Qwen3-Max-Thinking は、公的情報上、ツール有効化時の長コンテキスト/エージェント的設定で複数のベンチマークにおいて西側のクローズドソース先端モデルとのギャップを縮める、あるいは埋めるフロンティア推論モデルとして提示されています。本番採用の前に、必ず自前のベンチマークと、使用するスナップショットおよび推論設定の正確な条件で検証してください。

典型/推奨ユースケース

  • エンタープライズエージェントとツール対応ワークフロー(ウェブ検索、DB 呼び出し、計算ツールの自動化)— スナップショットはビルトインツールを明示的にサポート。
  • 長文書要約、法務/医療文書分析 — 大きなコンテキストウィンドウにより、長文 RAG タスクに適合。
  • 複雑な推論と多段問題解決(数学、コード推論、リサーチ支援)— Thinking モードは連鎖思考スタイルのワークフローを想定。
  • 多言語プロダクション — 幅広い言語カバレッジにより、グローバル展開や非英語パイプラインを支援。
  • 高スループット推論とコスト最適化 — レイテンシ/コスト要件に応じてモデルファミリー(MoE vs Dense)とスナップショットを選択。

CometAPI で Qwen3-max API にアクセスする方法

Step 1: Sign Up for API Key

cometapi.com にログインします。まだユーザーでない場合は、まず登録してください。CometAPI console にサインインします。インターフェースのアクセス認証 API キーを取得します。パーソナルセンターの API トークンで “Add Token” をクリックし、トークンキー(sk-xxxxx)を取得して送信します。

CometAPI キー

Step 2: Send Requests to Qwen3-max API

“qwen3-max-2026-01-23” エンドポイントを選択し、API リクエストを送信してリクエストボディを設定します。リクエストメソッドとリクエストボディは当社ウェブサイトの API ドキュメントから取得できます。利便性のため Apifox テストも提供しています。アカウントの実際の CometAPI キーに置き換えてください。ベース URL は Chat Completions です。

content フィールドに質問やリクエストを挿入します—モデルはこの内容に応答します。API レスポンスを処理して生成された回答を取得します。

Step 3: Retrieve and Verify Results

API レスポンスを処理して生成された回答を取得します。処理後、API はタスクステータスと出力データを返します。

qwen3 maxの機能

qwen3 maxのパフォーマンスと使いやすさを向上させるために設計された主要機能をご紹介します。これらの機能がプロジェクトにどのようなメリットをもたらし、ユーザーエクスペリエンスを改善するかをご確認ください。

qwen3 maxの料金

qwen3 maxの競争力のある価格設定をご確認ください。さまざまな予算や利用ニーズに対応できるよう設計されています。柔軟なプランにより、使用した分だけお支払いいただけるため、要件の拡大に合わせて簡単にスケールアップできます。qwen3 maxがコストを管理しながら、お客様のプロジェクトをどのように強化できるかをご覧ください。
コメット価格 (USD / M Tokens)公式価格 (USD / M Tokens)割引
入力:$0.8/M
出力:$3.2/M
入力:$1/M
出力:$4/M
-20%

qwen3 maxのサンプルコードとAPI

qwen3 maxの包括的なサンプルコードとAPIリソースにアクセスして、統合プロセスを効率化しましょう。詳細なドキュメントでは段階的なガイダンスを提供し、プロジェクトでqwen3 maxの潜在能力を最大限に活用できるよう支援します。
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3-max-2026-01-23",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3-max-2026-01-23",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await openai.chat.completions.create({
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" }
  ],
  model: "qwen3-max-2026-01-23",
});

console.log(completion.choices[0].message.content);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"

curl https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "qwen3-max-2026-01-23",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "Hello!"
      }
    ]
  }'

qwen3 maxのバージョン

qwen3 maxに複数のスナップショットが存在する理由としては、アップデート後の出力変動により旧版スナップショットの一貫性維持が必要な場合、開発者に適応・移行期間を提供するため、グローバル/リージョナルエンドポイントに対応する異なるスナップショットによるユーザー体験最適化などが考えられます。各バージョンの詳細な差異については、公式ドキュメントをご参照ください。
Model id説明AvailabilityRequest
qwen3-max-2026-01-232025年9月23日付のスナップショットと比較して、このバージョンのTongyi Qianwen 3シリーズMaxモデルは、思考モードと思考なしモードを効果的に統合し、モデル全体の性能を包括的かつ大幅に向上させています。思考モードでは、Web検索、Web情報抽出、コードインタープリターの各ツールを同時に利用可能にし、よりゆっくり思考しながら外部ツールを導入することで、より難しい問題をより高い精度で解決できるようになっています。このバージョンは、2026年1月23日付のスナップショットに基づいています。✅Chat形式
qwen3-maxプレビュー版と比較して、Tongyi Qianwen 3シリーズMaxモデルは、エージェントプログラミングおよびツール呼び出しにおいて特定のアップグレードが施されています。正式リリース版のモデルは、この分野における最先端(SOTA)レベルに達しており、より複雑なエージェント要件に対応します。✅Chat形式
qwen3-max-previewTongyi Qianwen 3シリーズMaxモデルのプレビュー版は、思考モードと思考なしモードを効果的に統合しています。思考モードでは、エージェントプログラミング、常識推論、および数学・科学・一般推論における能力を大幅に強化しています。✅Chat形式

その他のモデル

C

Claude Opus 4.7

入力:$3/M
出力:$15/M
エージェントやコーディング向けの最も高知能なモデル
A

Claude Sonnet 4.6

入力:$2.4/M
出力:$12/M
Claude Sonnet 4.6 は、これまでで最も高性能な Sonnet モデルです。コーディング、コンピューターの利用、長文脈推論、エージェントの計画立案、ナレッジワーク、デザインにわたってモデルのスキルを全面的にアップグレードしました。Sonnet 4.6 は、ベータ版で 1M トークンのコンテキストウィンドウも備えています。
O

GPT 5.5 Pro

入力:$24/M
出力:$144/M
極めて複雑なロジックと専門的要件に対応するよう設計された先進的なモデルであり、深い推論と精緻な分析能力において最高水準を体現します。
O

GPT 5.5

入力:$4/M
出力:$24/M
卓越した性能と効率的な応答を両立し、包括的で安定した汎用AIサービスの提供に特化した、次世代マルチモーダル・フラッグシップモデル。
O

GPT Image 2 ALL

リクエストごと:$0.04
GPT Image 2 は、高速かつ高品質な画像生成および編集のための、openai の最先端の画像生成モデルです。柔軟な画像サイズと高忠実度の画像入力に対応しています。
O

GPT 5.5 ALL

入力:$4/M
出力:$24/M
GPT-5.5は、コーディング、オンラインリサーチ、データ分析、ツール横断での操作に優れています。本モデルは、複雑なマルチステップタスクの処理における自律性を高めただけでなく、先行モデルと同等のレイテンシを維持しつつ、推論能力と実行効率も大幅に向上させており、AIによるオフィスオートメーションの実現に向けた重要な一歩となります。

関連ブログ

Qwen3-max thinking の使い方
Feb 3, 2026
qwen-3-max

Qwen3-max thinking の使い方

AlibabaのQwen3-Max-Thinking――巨大なQwen3ファミリーの“thinking”バリアント――は、今年のAI分野でヘッドラインを飾る話題の一つとなっている。深い推論、長文脈理解、エージェント型ワークフローに最適化された、パラメータ数1兆超のフラッグシップだ。要するに、アプリケーションにより遅く、より追跡可能な“System-2”型の思考モードを与えるためのベンダーの取り組みである。このモデルは単に答えるだけでなく、制御された方法で、手順、ツール、中間チェックを示し(そして用いる)ことができる。