Qwen 3 API

CometAPI
AnnaApr 29, 2025
Qwen 3 API

Qwen 3 API'en er en OpenAI-kompatibel grænseflade udviklet af Alibaba Cloud, der gør det muligt for udviklere at integrere avancerede Qwen 3 store sprogmodeller – tilgængelige i både tætte og mixed-of-experts (MoE) arkitekturer – i deres applikationer til opgaver som tekstgenerering, ræsonnement og flersproget support.


Qwen 3 Oversigt

Nøglefunktioner

  • Hybride ræsonnementsevnerQwen 3 integrerer både konventionelle AI-funktioner og avanceret dynamisk ræsonnement, hvilket forbedrer tilpasningsevne og effektivitet for udviklere.
  • SkalerbarhedModelfamilien omfatter både tætte (0.6B til 32B parametre) og sparse modeller (30B med 3B aktiverede parametre, 235B med 22B aktiverede parametre), der henvender sig til en bred vifte af anvendelser.
  • Udvidet kontekstvindueDe fleste Qwen 3-modeller understøtter et kontekstvindue på 128K tokens, hvilket letter behandlingen af ​​lange dokumenter og komplekse opgaver.
  • Multimodal supportQwen 3-modeller kan behandle tekst, billeder, lyd og videoinput, hvilket gør dem velegnede til forskellige anvendelser, herunder taleinteraktioner i realtid og visuel dataanalyse.
  • Open Source tilgængelighedAlle Qwen 3-modeller er licenseret under Apache 2.0-licensen og er tilgængelige via platforme som Hugging Face og ModelScope.

Teknisk arkitektur

Modelvarianter

Qwen 3 omfatter en række modeller til at imødekomme forskellige beregningsbehov:

  • Tætte modellerFås i størrelserne 0.6B, 1.7B, 4B, 8B, 14B og 32B med parametre.
  • Sparsomme modellerInkluder en 30B-model med 3B aktiverede parametre og en 235B-model med 22B aktiverede parametre.

Arkitekturen muliggør effektiv implementering på tværs af forskellige hardwarekonfigurationer, fra mobile enheder til højtydende servere.

Kontekstuel forståelse

Med et kontekstvindue på 128K tokens kan Qwen 3-modeller opretholde sammenhæng over længerevarende interaktioner, hvilket gør dem dygtige til opgaver, der kræver dyb kontekstuel forståelse, såsom generering af langformatindhold og kompleks problemløsning.

Udviklingen af ​​Qwen-serien

Fra Qwen til Qwen 3

Qwen-serien har gennemgået en betydelig udvikling:

  • QwenIntroduceret som de grundlæggende forudtrænede sprogmodeller, der demonstrerer overlegen ydeevne på tværs af forskellige opgaver.
  • Qwen-chatChatmodeller er finjusteret med menneskelige justeringsteknikker, der viser avancerede værktøjsbrugs- og planlægningsfunktioner.
  • Qwen2Udvidede modelpakken med instruktionsafstemte sprogmodeller med parameterområder fra 0.5 til 72 milliarder. Flagskibsmodellen, Qwen2-72B, udviste bemærkelsesværdig ydeevne på tværs af forskellige benchmarks.
  • Qwen2.5Introducerede modeller som Qwen2.5-Omni, der er i stand til at behandle tekst, billeder, videoer og lyd og generere både tekst- og lydoutput.
  • Qwen 3Den seneste iteration, der inkorporerer hybride ræsonnementfunktioner og forbedret effektivitet, markerer en betydelig fremgang i serien.

Benchmark ydeevne

Qwen2.5 overgår tidligere modeller som QwQ og Qwen3 betydeligt og leverer overlegne funktioner inden for matematik, kodning, sund fornuft-ræsonnement, kreativ skrivning og interaktiv dialog. Qwen3-30B-A3B-varianten inkluderer 30.5 milliarder parametre (3.3 milliarder aktiverede), 48 lag, 128 eksperter (8 aktiverede pr. opgave) og understøtter op til 131 token-kontekster med YaRN, hvilket sætter en ny standard blandt open source-modeller.

  • AIME25Qwen3 scorede 81.5 point og satte dermed en ny open source-rekord.
  • LiveCodeBench: Qwen3 scorede over 70 point, endnu bedre end Grok3.
  • ArenaHard: Qwen3 overgik OpenAl-o1 og DeepSeek-FR1 med 95.6 point.

Kodeeksempel

Udviklere kan interagere med Qwen 3-modeller ved hjælp af følgende Python-kodestykke:

from transformers import AutoTokenizer, AutoModelForCausalLM

# Load tokenizer and model

tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")

# Encode input prompt

input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")

# Generate response

output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)

print(response)

Dette eksempel demonstrerer, hvordan man indlæser en Qwen 3-model og genererer et svar på en given prompt ved hjælp af Hugging Face Transformers-biblioteket.

Konklusion

Qwen 3 repræsenterer en betydelig milepæl i Alibabas AI-udvikling og tilbyder forbedrede ræsonnementsfunktioner, skalerbarhed og multimodal understøttelse. Dens open source-tilgængelighed under Apache 2.0-licensen fremmer udbredt anvendelse og yderligere innovation inden for AI-fællesskabet. I takt med at AI-landskabet fortsætter med at udvikle sig, positionerer Qwen 3 Alibaba som en formidabel spiller på både den nationale og globale arena.


Sådan ringer du Qwen 3 API fra CometAPI

Qwen 3 API-priser i CometAPI:

ModelversionQwen3 235B A22BQwen: Qwen3 30B A3BQwen3 8B
Pris i CometAPIInput tokens: $1.6 / M tokensInput tokens: $0.4/M poletterInput tokens: $0.32 / M tokens
Output tokens: $4.8 / M tokensOutput tokens: $1.2 / M tokensOutput tokens: $0.96 / M tokens
modelnavnqwen3-235b-a22bqwen3-30b-a3bqwen3-8b
illustrereDette er flagskibsmodellen i Qwen3-serien med 235 milliarder parametre, der bruger en Mixture of Experts (MoE)-arkitektur.qwen3-30b-a3b: Med 30 milliarder parametre balancerer den ydeevne og ressourcekrav og er velegnet til applikationer på virksomhedsniveau.En letvægtsmodel med 800 millioner parametre, designet specifikt til ressourcebegrænsede miljøer (f.eks. mobile enheder eller servere med lav konfiguration).

Påkrævede trin

  • Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, bedes du registrere dig først
  • Få adgangslegitimations-API-nøglen til grænsefladen. Klik på "Tilføj token" ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og send.
  • Hent url'en til dette websted: https://api.cometapi.com/

Brugsmetoder

  1. Vælg "qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” endepunkt for at sende API-anmodningen og indstille anmodningsteksten. Forespørgselsmetoden og anmodningsteksten er hentet fra vores websteds API-dokument. Vores websted tilbyder også Apifox-test for din bekvemmelighed.
  2. Erstatte med din faktiske CometAPI-nøgle fra din konto.
  3. Indsæt dit spørgsmål eller din anmodning i indholdsfeltet – det er det, modellen vil reagere på.
  4. . Behandle API-svaret for at få det genererede svar.

For model frokost information i Comet API, se venligst https://api.cometapi.com/new-model.

For modelprisoplysninger i Comet API, se venligst https://api.cometapi.com/pricing.

Se også Qwen 2.5 Max API

SHARE THIS BLOG

500+ modeller i én API

Op til 20% rabat