阿里AI發布Qwen3-Max:萬億參數Qwen模型,CometAPI支持

CometAPI
AnnaOct 15, 2025
阿里AI發布Qwen3-Max:萬億參數Qwen模型,CometAPI支持

阿里巴巴 Qwen 團隊發布 Qwen3-Max-預覽(指導) — 該公司迄今為止最大的車型, 超過 1 兆個參數 ——並立即透過 Qwen Chat、阿里雲模型工作室 (API) 以及 CometAPI 等第三方市場開放。預覽版針對推理、編碼和長文件工作流程,結合超大規模、超大上下文視窗和上下文緩存,以保持長時間會話的低延遲。

主要技術亮點

  1. 海量參數數量(萬億以上): 轉向萬億以上參數模型旨在提升複雜模式學習(多步驟推理、程式碼合成、深度文件理解)的能力。 Qwen 發布的早期基準測試表明,與 Qwen 先前的頂級模型相比,其在推理、編碼和基準測試套件方面均取得了顯著提升。
  2. 超長上下文和快取: 262k 代幣 視窗允許團隊一次提供完整的長報告、多文件代碼庫或長聊天歷史記錄。上下文快取支援減少了重複上下文的重複計算,並可降低長時間會話的延遲和成本。
  3. 多語言+編碼能力: Qwen3 系列強調雙語(中文/英文)和廣泛的多語言支持,以及更強大的編碼和結構化輸出處理——對於代碼助手、自動報告生成和大規模文本分析很有用。
  4. 專為速度和品質而設計。 預覽版用戶表示,與先前的 Qwen3 版本相比,其響應速度“驚人”,指令執行和推理能力也得到了提升。阿里巴巴將該模型定位為面向生產級、代理級和開發者場景的高吞吐量旗艦產品。

可用性和訪問

阿里雲收費 分層、基於令牌 Qwen3-Max-Preview 的價格(輸入和輸出速率分開)。計費以百萬代幣計算,並應用於任何免費配額後實際消耗的代幣。

阿里巴巴公佈的預覽版定價(美元)按請求分級 輸入 代幣量(相同層級決定適用哪些單位費率):

  • 0–32K 輸入令牌: 0.861 / 1 萬個輸入代幣** **3.441 / 1M 輸出代幣.
  • 32K–128K 輸入令牌: 1.434 / 1 萬個輸入代幣** **5.735 / 1M 輸出代幣.
  • 128K–252K 輸入令牌: 2.151 / 1 萬個輸入代幣** **8.602 / 1M 輸出代幣.

CometAPI官方提供20%的折扣幫助用戶呼叫API,詳情參考 Qwen3-Max-預覽:

輸入令牌$0.24
輸出代幣$2.42

Qwen3-Max 擴展了 Qwen3 系列(該系列在先前的版本中採用了混合設計,例如混合專家變體和多個主動參數層)。阿里巴巴先前的 Qwen3 版本專注於「思考」(逐步推理)和「指導」模式;Qwen3-Max 被定位為該系列中新的頂級指導變體,表明它超越了該公司之前性能最佳的產品 Qwen3-235B-A22B-2507,表明 1T 參數模型在一系列測試中處於領先地位。

在 SuperGPQA、AIME25、LiveCodeBench v6、Arena-Hard v2 和 LiveBench (20241125) 上,Qwen3-Max-Preview 的排名始終領先 Claude Opus 4、Kimi K2 和 Deepseek-V3.1。

阿里AI發布Qwen3-Max:萬億參數Qwen模型,CometAPI支持

如何存取和使用 Qwen3-Max(實用指南)

1)在瀏覽器中嘗試(Qwen Chat)

親臨 Qwen聊天 (官方 Qwen 網頁/聊天介面)並選擇 Qwen3-Max-預覽 如果在模型選擇器中顯示,則為(指導)模型。這是以視覺化方式評估對話和指導任務的最快方法。

2)透過訪問 阿里巴巴雲 (模型工作室/雲端 API)

  • 登入阿里雲 → 模特兒工作室/模特兒服務. 建立推理實例或選擇託管模型端點 qwen3-max-預覽 (或標有預覽版)。
  • 使用您的阿里雲存取金鑰/RAM 角色進行身份驗證,並使用包含您的提示和任何產生參數(溫度、最大令牌等)的 POST 請求呼叫推理端點。

3)使用透過 第三方主機/聚合器

據悉,該預覽版可透過 CometAPI 和其他 API 聚合器訪問,這些聚合器允許開發人員使用單一 API 金鑰呼叫多個託管模型。這可以簡化跨提供者的測試,但需要驗證每個主機的延遲、區域可用性和資料處理策略。

入門

CometAPI 是一個統一的 API 平台,它將來自領先供應商(例如 OpenAI 的 GPT 系列、Google 的 Gemini、Anthropic 的 Claude、Midjourney、Suno 等)的 500 多個 AI 模型聚合到一個開發者友好的介面中。透過提供一致的身份驗證、請求格式和回應處理,CometAPI 顯著簡化了將 AI 功能整合到您的應用程式中的過程。無論您是建立聊天機器人、影像產生器、音樂作曲家,還是資料驅動的分析流程,CometAPI 都能讓您更快地迭代、控製成本,並保持與供應商的兼容性——同時也能充分利用整個 AI 生態系統的最新突破。

結論

Qwen3-Max-Preview 讓阿里巴巴躋身於向客戶交付萬億級模型的組織之列。極長的上下文長度與相容 OpenAI 的 API 結合,降低了需要長文檔推理、程式碼自動化或代理編排的企業的整合門檻。成本和預覽版穩定性是主要的採用考慮因素:組織將希望試行快取、串流和批次調用,以管理延遲和定價。

SHARE THIS BLOG

一個 API 中超過 500 個模型

最高 20% 折扣