ModelleSupportUnternehmenBlog
500+ KI-Modell-APIs, Alles in einer API. Nur bei CometAPI
Modelle-API
Entwickler
SchnellstartDokumentationAPI Dashboard
Ressourcen
KI-ModelleBlogUnternehmenÄnderungsprotokollÜber uns
2025 CometAPI. Alle Rechte vorbehalten.DatenschutzrichtlinieNutzungsbedingungen
Home/Models/Aliyun/Qwen3.6-Plus
Q

Qwen3.6-Plus

Eingabe:$0.32/M
Ausgabe:$1.92/M
Qwen 3.6-Plus ist jetzt verfügbar und bietet erweiterte Fähigkeiten für die Codeentwicklung sowie eine verbesserte Effizienz bei multimodaler Erkennung und Inferenz, wodurch das Erlebnis mit Vibe Coding noch besser wird.
Neu
Kommerzielle Nutzung
Playground
Überblick
Funktionen
Preisgestaltung
API

Technische Spezifikationen von Qwen3.6-Plus

Das Modell ist für agentische Workloads mit langen Kontexten und hohem Durchsatz entwickelt.

SpezifikationDetails
Kontextlänge1,000,000 Token (1M) standardmäßig
Maximale Ausgabetoken65,536 Token
EingabemodalitätenText, Bild, Video
AusgabeText (mit multimodalem Reasoning und Tool-Ausführung)
ArchitekturHybrid (lineare Attention + sparse MoE-Routing)
KernfunktionenStändig aktives Chain-of-Thought-Reasoning; native Tool-Aufrufe; langfristige Planung; visuelle Agenten
API-KompatibilitätOpenAI- und Anthropic-Protokolle

Was ist Qwen3.6-Plus?

Qwen3.6-Plus ist das neueste proprietäre multimodale Large Language Model in Alibabas Qwen3-Serie. Anders als frühere Open-Weight-Varianten der Familie ist diese „Plus“-Stufe ein ausschließlich gehostetes Flaggschiff, das für produktionstaugliche agentische Performance optimiert ist. Es glänzt darin, Wahrnehmung, Langzeitgedächtnis und präzise Tool-Ausführung in einem einzigen Workflow zu verbinden—Kennzeichen wahrhaft agentischer KI. Auf einer Hybridarchitektur der nächsten Generation aufgebaut (effiziente lineare Attention kombiniert mit sparse Mixture-of-Experts-Routing), skaliert es effizient und bewahrt dabei Fähigkeiten auf Spitzenniveau in Coding, Planung und multimodalem Verständnis.

Hauptfunktionen von Qwen3.6-Plus

  • Agentische Coding-Exzellenz: Von Ein-Prompt-Full-Stack-Anwendungen bis hin zu Debugging auf Repository-Ebene und Frontend-Entwicklung (einschließlich 3D-Szenen und Spielen). Unterstützt nahtlose Integration mit Tools wie OpenClaw, Qwen Code und Terminal-Umgebungen.
  • Fortgeschrittene multimodale Wahrnehmung: Schärferes Verständnis von Bildern, Dokumenten, Diagrammen, UI-Elementen und Video, ermöglicht visuelle Agenten für Bildschirmnavigation, OCR und zeitliches Reasoning.
  • Langfristige Planung & Tool-Nutzung: Zuverlässige Ausführung in mehreren Schritten, Gedächtniserhalt und adaptive Entscheidungsfindung.
  • Stabilität & „Vibe Coding“: Verfeinerte Reaktion auf Community-Feedback für konsistente, produktionsreife Performance.
  • Mehrsprachig & domänenübergreifende Stärke: Wettbewerbsfähig in 200+ Sprachen und diversen Domänen (STEM, Recht, Finanzen, Gesundheitswesen).

Benchmark-Leistung von Qwen3.6-Plus

Qwen3.6-Plus liefert State-of-the-Art- bzw. nahezu State-of-the-Art-Ergebnisse über agentische, Coding-, Reasoning- und multimodale Benchmarks hinweg. Ausgewählte Highlights (offizielle Qwen-Auswertungen, temperature=1.0, angemessene Kontextfenster):

Agentische & Coding-Benchmarks

  • SWE-bench Verified: 78.8 (Claude Opus 4.5: 80.9; wettbewerbsfähig mit GPT-5.x-Varianten)
  • Terminal-Bench 2.0: 61.6 (übertrifft Claude Opus 4.5: 59.3)
  • QwenClawBench: 57.2 (Claude: 52.3)
  • SWE-bench Multilingual: 73.8

Reasoning & Wissen

  • GPQA: 90.4 (Claude Opus 4.5: 87.0)
  • LiveCodeBench v6: 87.1 (Claude: 84.8)
  • MMLU-Pro: 88.5

Multimodal & Vision

  • OmniDocBench1.5: 91.2 (GPT-5.2: 85.7)
  • VideoMME (mit Untertiteln): 87.8 (GPT-5.2: 86.0)
  • MMMU: 86.0
  • RealWorldQA: 85.4

Das Modell führt in praktischen agentischen Szenarien (Terminalausführung, langfristige Planung) und bleibt zugleich in reinen Reasoning- und Vision-Aufgaben hoch wettbewerbsfähig. Es erreicht häufig das Niveau von oder übertrifft Spitzenmodelle wie Claude Opus 4.5/4.6, GPT-5.x, Gemini 3 Pro und Kimi K2.5 in zielgerichteten Evaluierungen.

Zugriff auf Qwen3.6-Plus über CometAPI

CometAPI ist ein entwicklerzentriertes KI-Gateway, das den Zugriff auf über 500 Modelle—einschließlich der vollständigen Qwen-Serie—über einen einzigen OpenAI-kompatiblen API-Endpunkt vereinheitlicht. So verwenden Sie Qwen3.6-Plus:

  1. Registrieren Sie sich unter cometapi.com.
  2. Rufen Sie Ihren API-Schlüssel aus dem Dashboard ab.
  3. Verwenden Sie den Standard-OpenAI-Client (oder ein beliebiges kompatibles SDK) mit dem Modellbezeichner für Qwen3.6-Plus (typischerweise qwen3.6-plus oder eine entsprechende Bezeichnung in deren Katalog).

CometAPI unterstützt Text-, Bild- und Videoeingaben, Tool-Aufrufe sowie vollen Kontext bis 1M Token.

Warum CometAPI für die Nutzung von Qwen3.6-Plus wählen?

CometAPI eignet sich besonders für den produktiven Einsatz von Spitzenmodellen wie Qwen3.6-Plus in großem Umfang, weil es Folgendes bietet:

  • Vereinheitlichter Zugriff: Ein API-Schlüssel und Endpunkt für 500+ Modelle (OpenAI, Anthropic, Google, Qwen, DeepSeek etc.)—reduziert Anbieterwildwuchs und vereinfacht die Abrechnung.
  • Wettbewerbsfähige Preise: Deutlich niedrigere effektive Sätze als der direkte Zugriff über Alibaba Cloud (Qwen3.6-Plus Input typischerweise ~$0.32 pro Million Token über Aggregatoren; Qwen3.6-Plus Input typischerweise ~$1.92 pro Million Token). Pay-as-you-go ohne Mindestmengen.
  • Smart Routing & Zuverlässigkeit: Globale Infrastruktur, automatisches Fallback und Optimierung für Geschwindigkeit/Latenz.
  • Developer Experience: Schlanke SDKs, interaktiver Playground, Nutzungsanalysen, Privacy-first (keine Datenspeicherung) und Sicherheit auf Enterprise-Niveau.
  • Kosteneffizienz im großen Maßstab: Ideal für agentische Workflows mit großen Kontexten; Bündelungskaufkraft führt zu erheblichen Einsparungen gegenüber Direktanbieterpreisen.

Ob Sie autonome Coding-Agenten, Enterprise-Automationsplattformen oder multimodale Anwendungen der nächsten Generation entwickeln: Qwen3.6-Plus via CometAPI liefert Spitzenleistung mit der Einfachheit und Wirtschaftlichkeit, die für den Einsatz in der Praxis erforderlich sind. Die schnelle Verbreitung und Benchmark-Führerschaft des Modells zeigt, dass agentische KI den Schritt vom Experimentellen zur Produktionsreife gemacht hat—und CometAPI macht sie für jeden Entwickler sofort zugänglich.

FAQ

What is the context window of Qwen3.6-Plus API?

Qwen3.6-Plus unterstützt ein Kontextfenster von 1,000,000 Token und ermöglicht Reasoning im Repository-Maßstab sowie die Analyse langer Dokumente.

Is Qwen3.6-Plus optimized for coding agents?

Ja, Qwen3.6-Plus ist für agentisches Coding ausgelegt und erreicht 78.8 auf SWE-Bench Verified.

Does Qwen3.6-Plus support multimodal inputs?

Ja, Qwen3.6-Plus unterstützt multimodale Eingaben, einschließlich Text, Bildern und Dokumenten.

How does Qwen3.6-Plus compare to Qwen3.5-Plus?

Qwen3.6-Plus führt ein Kontextfenster mit 1M Token und verbessertes Reasoning ein.

Does Qwen3.6-Plus support function calling and tools?

Ja, Qwen3.6-Plus unterstützt native Funktionsaufrufe.

What are the best use cases for Qwen3.6-Plus?

Coding-Agenten, Reasoning über lange Dokumente und Automatisierungs-Workflows.

Is Qwen3.6-Plus suitable for long-context applications?

Ja, es unterstützt einen 1M-Token-Kontext.

What makes Qwen3.6-Plus different from GPT or Claude models?

Es konzentriert sich auf agentische Automatisierung und Reasoning mit langem Kontext.

Funktionen für Qwen3.6-Plus

Entdecken Sie die wichtigsten Funktionen von Qwen3.6-Plus, die darauf ausgelegt sind, Leistung und Benutzerfreundlichkeit zu verbessern. Erfahren Sie, wie diese Fähigkeiten Ihren Projekten zugutekommen und die Benutzererfahrung verbessern können.

Preise für Qwen3.6-Plus

Entdecken Sie wettbewerbsfähige Preise für Qwen3.6-Plus, die für verschiedene Budgets und Nutzungsanforderungen konzipiert sind. Unsere flexiblen Tarife stellen sicher, dass Sie nur für das bezahlen, was Sie nutzen, und erleichtern die Skalierung entsprechend Ihren wachsenden Anforderungen. Erfahren Sie, wie Qwen3.6-Plus Ihre Projekte verbessern kann, während die Kosten überschaubar bleiben.
Comet-Preis (USD / M Tokens)Offizieller Preis (USD / M Tokens)Rabatt
Eingabe:$0.32/M
Ausgabe:$1.92/M
Eingabe:$0.4/M
Ausgabe:$2.4/M
-20%

Beispielcode und API für Qwen3.6-Plus

Greifen Sie auf umfassende Beispielcodes und API-Ressourcen für Qwen3.6-Plus zu, um Ihren Integrationsprozess zu optimieren. Unsere detaillierte Dokumentation bietet schrittweise Anleitungen und hilft Ihnen dabei, das volle Potenzial von Qwen3.6-Plus in Ihren Projekten zu nutzen.
POST
/v1/chat/completions
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.6-plus",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

Python Code Example

from openai import OpenAI
import os

# Get your CometAPI key from https://www.cometapi.com/console/token
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.6-plus",
    messages=[{"role": "user", "content": "Hello! Tell me a short joke."}],
)

print(completion.choices[0].message.content)

JavaScript Code Example

import OpenAI from "openai";

// Get your CometAPI key from https://www.cometapi.com/console/token
const COMETAPI_KEY = process.env.COMETAPI_KEY || "<YOUR_COMETAPI_KEY>";
const BASE_URL = "https://api.cometapi.com/v1";

const client = new OpenAI({
  apiKey: COMETAPI_KEY,
  baseURL: BASE_URL,
});

const completion = await client.chat.completions.create({
  model: "qwen3.6-plus",
  messages: [{ role: "user", content: "Hello! Tell me a short joke." }],
});

console.log(completion.choices[0].message.content);

Curl Code Example

#!/bin/bash

# Get your CometAPI key from https://www.cometapi.com/console/token
# Export it as: export COMETAPI_KEY="your-key-here"

response=$(curl -s https://api.cometapi.com/v1/chat/completions \
  -H "Content-Type: application/json" \
  -H "Authorization: Bearer $COMETAPI_KEY" \
  -d '{
    "model": "qwen3.6-plus",
    "messages": [
      {
        "role": "user",
        "content": "Hello! Tell me a short joke."
      }
    ]
  }')

printf '%s\n' "$response" | python -c 'import json, sys; print(json.load(sys.stdin)["choices"][0]["message"]["content"])'

Weitere Modelle

A

Claude Opus 4.6

Eingabe:$4/M
Ausgabe:$20/M
Claude Opus 4.6 ist das Großsprachmodell der „Opus“-Klasse von Anthropic, veröffentlicht im Februar 2026. Es ist als Arbeitstier für Wissensarbeit und Forschungs-Workflows positioniert — mit Verbesserungen beim langkontextuellen Denken, bei der mehrstufigen Planung, bei der Tool-Nutzung (einschließlich agentenbasierter Software-Workflows) sowie bei computerbezogenen Aufgaben wie der automatisierten Erstellung von Folien und Tabellen.
A

Claude Sonnet 4.6

Eingabe:$2.4/M
Ausgabe:$12/M
Claude Sonnet 4.6 ist unser bisher leistungsfähigstes Sonnet-Modell. Es ist ein umfassendes Upgrade der Fähigkeiten des Modells in den Bereichen Programmierung, Computernutzung, Schlussfolgern mit langem Kontext, Agentenplanung, Wissensarbeit und Design. Sonnet 4.6 bietet außerdem ein 1M-Token-Kontextfenster in Beta.
O

GPT-5.4 nano

Eingabe:$0.16/M
Ausgabe:$1/M
GPT-5.4 nano ist für Aufgaben konzipiert, bei denen Geschwindigkeit und Kosten am wichtigsten sind, wie Klassifizierung, Datenextraktion, Ranking und Sub-Agenten.
O

GPT-5.4 mini

Eingabe:$0.6/M
Ausgabe:$3.6/M
GPT-5.4 mini bringt die Stärken von GPT-5.4 in ein schnelleres, effizienteres Modell, das für hochvolumige Workloads konzipiert ist.
A

Claude Opus 4.7

A

Claude Opus 4.7

Eingabe:$4/M
Ausgabe:$20/M
Das intelligenteste Modell für Agenten und Programmierung
M

Kimi K2.6

M

Kimi K2.6

Eingabe:$0.48/M
Ausgabe:$2.4/M
Die Vorabversion von Kimi K2.6 ist jetzt zum Testen verfügbar.