模型支持企业博客
500+ AI 模型 API,一次搞定,就在 CometAPI
模型 API
开发者
快速入门文档API 仪表板
资源
AI 模型博客企业更新日志关于
2025 CometAPI。保留所有权利。隐私政策服务条款
Home/Models/Aliyun/Qwen3.6-Plus
Q

Qwen3.6-Plus

输入:$0.32/M
输出:$1.92/M
Qwen 3.6-Plus 现已发布,具备更强的代码开发能力,并在多模态识别与推理方面效率更高,使 Vibe Coding 体验更佳。
新
商用
Playground
概览
功能亮点
定价
API

Qwen3.6-Plus 的技术规格

该模型专为长上下文、高吞吐的智能体工作负载而设计。

规格详细信息
上下文长度默认 1,000,000 tokens(1M)
最大输出 tokens65,536 tokens
输入模态文本、图像、视频
输出文本(具备多模态推理与工具执行)
架构混合(线性注意力 + 稀疏 MoE 路由)
关键能力始终启用的思维链推理;原生工具调用;长时程规划;视觉智能体
API 兼容性兼容 OpenAI 和 Anthropic 协议

什么是 Qwen3.6-Plus?

Qwen3.6-Plus 是阿里巴巴 Qwen3 系列中最新的专有多模态大语言模型。与该系列中早期的开放权重变体不同,“Plus”级别为仅托管的旗舰版本,针对生产级智能体性能进行了优化。它擅长在单一工作流中打通感知、长期记忆与精确工具执行——这是真正智能体式 AI 的标志。基于下一代混合架构(高效线性注意力结合稀疏专家混合路由),该模型在保持前沿级编码、规划与多模态理解能力的同时实现高效扩展。

Qwen3.6-Plus 的主要特性

  • 智能体编码卓越:从单提示词的全栈应用到仓库级调试与前端开发(包括 3D 场景与游戏)。支持与 OpenClaw、Qwen Code 以及终端环境等工具的无缝集成。
  • 高级多模态感知:对图像、文档、图表、UI 元素与视频有更敏锐的理解,使视觉智能体可执行屏幕导航、OCR 与时序推理。
  • 长时程规划与工具使用:可靠的多步执行、记忆保持与自适应决策。
  • 稳定性与“Vibe Coding”:基于社区反馈精修,表现一致、可用于生产。
  • 多语种与跨领域实力:在 200+ 种语言与多元领域(STEM、法律、金融、医疗)中具备竞争力。

Qwen3.6-Plus 的基准表现

Qwen3.6-Plus 在智能体、编码、推理与多模态基准上实现了最先进或接近最先进的成绩。精选亮点(官方 Qwen 评测,temperature=1.0,使用适当上下文窗口):

智能体与编码基准

  • SWE-bench Verified:78.8(Claude Opus 4.5:80.9;与 GPT-5.x 变体具备竞争力)
  • Terminal-Bench 2.0:61.6(优于 Claude Opus 4.5:59.3)
  • QwenClawBench:57.2(Claude:52.3)
  • SWE-bench Multilingual:73.8

推理与知识

  • GPQA:90.4(Claude Opus 4.5:87.0)
  • LiveCodeBench v6:87.1(Claude:84.8)
  • MMLU-Pro:88.5

多模态与视觉

  • OmniDocBench1.5:91.2(GPT-5.2:85.7)
  • VideoMME(含字幕):87.8(GPT-5.2:86.0)
  • MMMU:86.0
  • RealWorldQA:85.4

该模型在实用的智能体场景(终端执行、长时程规划)中领先,同时在纯推理与视觉任务上保持高度竞争力。在针对性评测中,它经常与 Claude Opus 4.5/4.6、GPT-5.x、Gemini 3 Pro 与 Kimi K2.5 等前沿模型旗鼓相当或更优。

如何通过 CometAPI 访问 Qwen3.6-Plus

CometAPI 是面向开发者的 AI 网关,通过单一的 OpenAI 兼容 API 端点统一接入 500+ 模型(包括完整的 Qwen 系列)。要使用 Qwen3.6-Plus:

  1. 在 cometapi.com 注册。
  2. 从控制台获取 API 密钥。
  3. 使用标准 OpenAI 客户端(或任何兼容 SDK),并选择 Qwen3.6-Plus 的模型标识符(通常为 qwen3.6-plus 或其目录中的等效项)。

CometAPI 支持文本、图像与视频输入、工具调用,以及最长 1M tokens 的完整上下文。

为什么选择 CometAPI 使用 Qwen3.6-Plus?

CometAPI 在高容量、生产级使用前沿模型(如 Qwen3.6-Plus)方面具有优势,主要体现在:

  • 统一接入:一个 API Key 与端点即可覆盖 500+ 模型(OpenAI、Anthropic、Google、Qwen、DeepSeek 等)——消除供应商分散并简化计费。
  • 具竞争力的定价:相较直接使用阿里云,具有显著更低的有效费率(Qwen3.6-Plus 输入通常为 ~$0.32 每百万 tokens(通过聚合商);Qwen3.6-Plus 输入通常为 ~$1.92 每百万 tokens)。按量付费,无最低门槛。
  • 智能路由与可靠性:全球基础设施、自动回退,并针对速度/延迟进行优化。
  • 开发者体验:轻量 SDK、交互式 Playground、使用分析、隐私优先(无数据留存),以及企业级安全性。
  • 规模化成本效率:非常适合消耗大上下文的智能体工作流;批量采购能力可转化为相较直接供应商定价的可观节省。

无论你是在构建自主编码智能体、企业自动化平台,还是下一代多模态应用,Qwen3.6-Plus via CometAPI 都能以简洁的接入与具备经济性的成本提供前沿性能,满足真实环境部署需求。该模型的快速采用与基准领先表明,智能体式 AI 已从实验走向生产,而 CometAPI 让每位开发者都能立即获得这一能力。

常见问题

What is the context window of Qwen3.6-Plus API?

Qwen3.6-Plus 支持 1,000,000 个 token 的上下文窗口,可进行仓库级推理和长文档分析。

Is Qwen3.6-Plus optimized for coding agents?

是的,Qwen3.6-Plus 专为代理式编码设计,并在 SWE-Bench Verified 上取得 78.8 分。

Does Qwen3.6-Plus support multimodal inputs?

是的,Qwen3.6-Plus 支持多模态输入,包括文本、图像和文档。

How does Qwen3.6-Plus compare to Qwen3.5-Plus?

Qwen3.6-Plus 引入了 1M token 的上下文窗口,并提升了推理能力。

Does Qwen3.6-Plus support function calling and tools?

是的,Qwen3.6-Plus 包含原生函数调用功能。

What are the best use cases for Qwen3.6-Plus?

编码代理、长文档推理和自动化工作流。

Is Qwen3.6-Plus suitable for long-context applications?

是的,它支持 1M token 的上下文。

What makes Qwen3.6-Plus different from GPT or Claude models?

它专注于代理式自动化和长上下文推理。

Qwen3.6-Plus 的功能

了解 Qwen3.6-Plus 的核心能力,帮助提升性能与可用性,并改善整体体验。

Qwen3.6-Plus 的定价

查看 Qwen3.6-Plus 的竞争性定价,满足不同预算与使用需求,灵活方案确保随需求扩展。
Comet 价格 (USD / M Tokens)官方定价 (USD / M Tokens)折扣
输入:$0.32/M
输出:$1.92/M
输入:$0.4/M
输出:$2.4/M
-20%

Qwen3.6-Plus 的示例代码与 API

获取完整示例代码与 API 资源,简化 Qwen3.6-Plus 的集成流程,我们提供逐步指导,助你发挥模型潜能。
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.6-plus",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.6-plus",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://www.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

const completion = await client.chat.completions.create({
  model: "qwen3.6-plus",
  messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
});

console.log(completion.choices[0].message.content);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://www.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"

response=$(curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "qwen3.6-plus",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }')

printf '%s\n' "$response" | python -c 'import json, sys; print(json.load(sys.stdin)["choices"][0]["message"]["content"])'

更多模型

A

Claude Opus 4.6

输入:$4/M
输出:$20/M
Claude Opus 4.6 是 Anthropic 的“Opus”级大型语言模型,于 2026 年 2 月发布。其定位为知识工作与研究工作流的主力模型——提升长上下文推理、多步骤规划、工具使用(包括代理型软件工作流),以及计算机使用类任务,如自动生成幻灯片和电子表格。
A

Claude Sonnet 4.6

输入:$2.4/M
输出:$12/M
Claude Sonnet 4.6 是迄今为止我们最强大的 Sonnet 模型。它对模型在编码、计算机使用、长上下文推理、智能体规划、知识工作和设计等方面的能力进行了全面升级。Sonnet 4.6 还在 beta 阶段提供 1M token 上下文窗口。
O

GPT-5.4 nano

输入:$0.16/M
输出:$1/M
GPT-5.4 nano 专为速度和成本最为关键的任务而设计,例如分类、数据提取、排序以及子智能体。
O

GPT-5.4 mini

输入:$0.6/M
输出:$3.6/M
GPT-5.4 mini 将 GPT-5.4 的优势融入到一款更快速、更高效、专为大规模工作负载设计的模型中。
A

Claude Opus 4.7

A

Claude Opus 4.7

输入:$4/M
输出:$20/M
用于智能体和编程的最智能模型
M

Kimi K2.6

M

Kimi K2.6

输入:$0.48/M
输出:$2.4/M
Kimi K2.6 预览版现已开放测试。