模型定價企業
500+ AI 模型 API,全部整合在一個 API 中。就在 CometAPI
模型 API
開發者
快速入門說明文件API 儀表板
公司
關於我們企業
資源
AI模型部落格更新日誌支援
服務條款隱私政策
© 2026 CometAPI · All rights reserved
Home/Models/Aliyun/qwen3 max
Q

qwen3 max

輸入:$0.8/M
輸出:$3.2/M
- qwen3-max: Alibaba Tongyi Qianwen 團隊最新的 Qwen3-Max 模型,定位為該系列的性能巔峰。 - 🧠 強大的多模態與推理能力:支援超長上下文(最多 128k tokens)與多模態輸入,擅長複雜推理、程式碼生成、翻譯與創意內容。 - ⚡️ 突破性提升:多項技術指標顯著優化、回應速度更快,知識截止點最高至 2025 年,適用於企業級高精度 AI 應用。
商業用途
Playground
概覽
功能
定價
API
版本

Qwen 3-max 的技術規格

FieldValue / notes
Official model name / versionqwen3-max-2026-01-23 (Qwen3-Max;提供 “Thinking” 變體)。
Parameter scale> 1 兆參數(兆級旗艦)。
ArchitectureQwen3 系列設計;整個 Qwen3 系列為效率採用專家混合(MoE)技術;描述了專用的 “thinking”/推理模式。
Training data volume據報約 ~36 兆 token(預訓練混合配方載於 Qwen3 技術資料)。
Native context length原生 32,768 token;據報經驗證的方法(例如 RoPE/YaRN)在實驗中可將行為擴展至更長視窗。
Typical supported modalitiesQwen3 家族中的文字與多模態擴展(存在影像編輯/視覺變體);Qwen3-Max 聚焦於文字 + 代理/工具整合以進行推理。
ModesThinking(逐步推理/工具使用)與 Non-thinking(快速指令)。快照明確支援內建工具。

什麼是 Qwen3-Max

Qwen3-Max 是 Qwen3 世代中的高能力等級:一款面向推理的模型,專為複雜推理、工具/代理工作流程、檢索增強生成(RAG)與長上下文任務而設計。“Thinking” 設計在需要時可產生鏈式思維(CoT)風格的逐步輸出,而非 Thinking 模式提供較低延遲的回應。2026-01-23 快照強調了內建工具呼叫與企業級推理就緒。

Qwen3-Max 的主要特性

  • 前沿推理(“Thinking” 模式):一種推理/“thinking” 推理模式,旨在產生逐步軌跡並提升多步推理的準確度。
  • 兆級參數規模:旗艦級規模,旨在全面提升推理、程式碼與對齊敏感任務的表現。
  • 長上下文(原生 32K):原生 32,768 token 視窗;據報經驗證技術可在特定設定中處理更長的上下文。適用於長文件、多文件摘要與大型代理狀態。
  • 代理/工具整合:設計上可更有效呼叫外部工具、判斷何時搜尋或執行程式碼,並為企業任務協調多步代理流程。
  • 多語言與程式能力:在大量多語語料上訓練,於程式與程式碼生成任務中具有強勁表現。

Qwen3-Max 的基準測試表現

qwen3 max

Qwen3-Max 與部分同期模型比較

  • Versus GPT-5.2 (OpenAI) — 媒體比較將 Qwen3-Max-Thinking 在啟用工具使用時的多步推理基準上定位為具競爭力;絕對排名因基準與協議而異。Qwen 的價格/Token 分級在重度代理/RAG 用途中似乎具備競爭力。
  • Versus Gemini 3 Pro (Google) — 部分公開比較(HLE)顯示 Qwen3-Max-Thinking 在特定推理評測上優於 Gemini 3 Pro;同樣地,結果高度依賴於工具啟用與方法學。
  • Versus Anthropic (Claude) and other providers — 媒體報導稱,Qwen3-Max-Thinking 在部分推理與多領域基準上可匹敵或超越部分 Anthropic/Claude 變體;獨立基準套件在不同資料集上的結果則好壞不一。

重點:Qwen3-Max-Thinking 對外被呈現為前沿推理模型,據稱在多項基準上縮小甚至彌合與西方主流閉源模型之間的差距——尤其是在啟用工具、長上下文與代理式設定中。在投入生產前,請以您自己的基準、精確快照與推理配置進行驗證。

典型 / 推薦使用情境

  • 企業代理與工具驅動的工作流程(透過網路搜尋、資料庫呼叫、計算器的自動化)——快照明確支援內建工具。
  • 長文件摘要、法律/醫療文件分析——大型上下文視窗使 Qwen3-Max 適合長型 RAG 任務。
  • 複雜推理與多步問題求解(數學、程式推理、研究助理)——Thinking 模式面向鏈式思維(CoT)風格的工作流程。
  • 多語量產——廣泛的語言覆蓋支援全球部署與非英語管線。
  • 高吞吐推理與成本優化——可依延遲/成本需求選擇模型家族(MoE vs 稠密)與適當的快照。

如何透過 CometAPI 存取 Qwen3-max API

步驟 1:申請 API 金鑰

登入 cometapi.com。若您尚未成為使用者,請先註冊。登入您的 CometAPI console。取得介面的存取憑證 API 金鑰。在個人中心的 API token 處點選 “Add Token”,取得 token 金鑰:sk-xxxxx 並提交。

CometAPI 金鑰

步驟 2:發送請求至 Qwen3-max API

選擇 “qwen3-max-2026-01-23” 端點發送 API 請求並設定請求體。請求方法與請求體可由我們網站的 API 文件取得。我們的網站也提供 Apifox 測試以供您便利。將其替換為您帳戶中的實際 CometAPI 金鑰。基礎 URL 為 Chat Completions。

將您的問題或請求插入 content 欄位——模型將回應此內容。處理 API 回應以取得生成的答案。

步驟 3:擷取並驗證結果

處理 API 回應以取得生成的答案。處理後,API 會回傳任務狀態與輸出資料。

qwen3 max 的功能

探索 qwen3 max 的核心功能,專為提升效能和可用性而設計。了解這些功能如何為您的專案帶來效益並改善使用者體驗。

qwen3 max 的定價

探索 qwen3 max 的競爭性定價,專為滿足各種預算和使用需求而設計。我們靈活的方案確保您只需為實際使用量付費,讓您能夠隨著需求增長輕鬆擴展。了解 qwen3 max 如何在保持成本可控的同時提升您的專案效果。
彗星價格 (USD / M Tokens)官方價格 (USD / M Tokens)折扣
輸入:$0.8/M
輸出:$3.2/M
輸入:$1/M
輸出:$4/M
-20%

qwen3 max 的範例程式碼和 API

存取完整的範例程式碼和 API 資源,以簡化您的 qwen3 max 整合流程。我們詳盡的文件提供逐步指引,協助您在專案中充分發揮 qwen3 max 的潛力。
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3-max-2026-01-23",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3-max-2026-01-23",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
const api_key = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const base_url = "https://api.cometapi.com/v1";

const openai = new OpenAI({
  apiKey: api_key,
  baseURL: base_url,
});

const completion = await openai.chat.completions.create({
  messages: [
    { role: "system", content: "You are a helpful assistant." },
    { role: "user", content: "Hello!" }
  ],
  model: "qwen3-max-2026-01-23",
});

console.log(completion.choices[0].message.content);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://api.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"

curl https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "qwen3-max-2026-01-23",
    "messages": [
      {
        "role": "system",
        "content": "You are a helpful assistant."
      },
      {
        "role": "user",
        "content": "Hello!"
      }
    ]
  }'

qwen3 max的版本

qwen3 max擁有多個快照的原因可能包括:更新後輸出結果存在差異需保留舊版快照以確保一致性、為開發者提供適應與遷移的過渡期,以及不同快照對應全球或區域端點以優化使用者體驗等潛在因素。各版本間的具體差異請參閱官方文件說明。
Model idDescriptionAvailabilityRequest
qwen3-max-2026-01-23與日期為 2025 年 9 月 23 日的快照相比,這一版本的通義千問 3 系列 Max 模型有效整合了思考與非思考模式,從而全面且顯著提升了整體模型效能。在思考模式下,它同時釋出網頁搜尋、網頁資訊擷取與程式碼直譯器工具,使模型能夠透過引入外部工具並以更慢的思考方式,更準確地解決更具挑戰性的問題。此版本基於日期為 2026 年 1 月 23 日的快照。✅Chat 格式
qwen3-max與預覽版本相比,通義千問 3 系列 Max 模型在代理程式設計與工具呼叫方面進行了特定升級。正式發布的模型達到該領域的最先進(SOTA)水準,能夠適應更複雜的代理需求。✅Chat 格式
qwen3-max-preview通義千問 3 系列 Max 模型預覽版有效整合了思考與非思考模式。在思考模式下,它顯著增強了代理程式設計、常識推理,以及數學/科學/通用推理方面的能力。✅Chat 格式

更多模型

C

Claude Opus 4.7

輸入:$3/M
輸出:$15/M
用於智能體與程式設計的最智能模型
A

Claude Sonnet 4.6

輸入:$2.4/M
輸出:$12/M
Claude Sonnet 4.6 是我們迄今為止最強大的 Sonnet 模型。它對模型在程式設計、電腦操作、長上下文推理、代理規劃、知識工作與設計等方面的能力進行了全面升級。Sonnet 4.6 亦提供 1M 詞元的上下文視窗,目前處於 Beta 階段。
O

GPT 5.5 Pro

輸入:$24/M
輸出:$144/M
一款專為極其複雜的邏輯與專業需求而設計的先進模型,代表深度推理與精準分析能力的最高標準。
O

GPT 5.5

輸入:$4/M
輸出:$24/M
新一代多模態旗艦模型,兼顧卓越效能與高效回應,致力於提供全面而穩定的通用型 AI 服務。
O

GPT Image 2 ALL

每次請求:$0.04
GPT Image 2 是 OpenAI 的最先進影像生成模型,適用於快速且高品質的影像生成與編輯。它支援彈性的影像尺寸與高保真度的影像輸入。
O

GPT 5.5 ALL

輸入:$4/M
輸出:$24/M
GPT-5.5 在程式碼撰寫、線上研究、資料分析與跨工具操作方面表現出色。該模型不僅在處理複雜的多步驟任務時提升了自主性,還在保持與前代相同延遲的同時,大幅提升推理能力與執行效率,標誌著朝向 AI 驅動的辦公自動化邁出重要一步。

相關部落格

如何使用 Qwen3-max thinking?
Feb 3, 2026
qwen-3-max

如何使用 Qwen3-max thinking?

Alibaba 的 Qwen3-Max-Thinking — 龐大的 Qwen3 家族中的「思考」變體 — 已成為今年 AI 領域的焦點之一:一款擁有逾一兆參數、為深度推理、長上下文理解與代理式工作流程而調校的旗艦模型。簡而言之,這是該廠商為應用程式提供更慢且更可追溯的「System-2」思考模式的舉措:模型不僅僅是回答,還能以可控方式展示(並使用)步驟、工具與中間檢查。