Qwen 3 API'en er en OpenAI-kompatibel grænseflade udviklet af Alibaba Cloud, der gør det muligt for udviklere at integrere avancerede Qwen 3 store sprogmodeller – tilgængelige i både tætte og mixed-of-experts (MoE) arkitekturer – i deres applikationer til opgaver som tekstgenerering, ræsonnement og flersproget support.
Qwen 3 Oversigt
Nøglefunktioner
- Hybride ræsonnementsevnerQwen 3 integrerer både konventionelle AI-funktioner og avanceret dynamisk ræsonnement, hvilket forbedrer tilpasningsevne og effektivitet for udviklere.
- SkalerbarhedModelfamilien omfatter både tætte (0.6B til 32B parametre) og sparse modeller (30B med 3B aktiverede parametre, 235B med 22B aktiverede parametre), der henvender sig til en bred vifte af anvendelser.
- Udvidet kontekstvindueDe fleste Qwen 3-modeller understøtter et kontekstvindue på 128K tokens, hvilket letter behandlingen af lange dokumenter og komplekse opgaver.
- Multimodal supportQwen 3-modeller kan behandle tekst, billeder, lyd og videoinput, hvilket gør dem velegnede til forskellige anvendelser, herunder taleinteraktioner i realtid og visuel dataanalyse.
- Open Source tilgængelighedAlle Qwen 3-modeller er licenseret under Apache 2.0-licensen og er tilgængelige via platforme som Hugging Face og ModelScope.
Teknisk arkitektur
Modelvarianter
Qwen 3 omfatter en række modeller til at imødekomme forskellige beregningsbehov:
- Tætte modellerFås i størrelserne 0.6B, 1.7B, 4B, 8B, 14B og 32B med parametre.
- Sparsomme modellerInkluder en 30B-model med 3B aktiverede parametre og en 235B-model med 22B aktiverede parametre.
Arkitekturen muliggør effektiv implementering på tværs af forskellige hardwarekonfigurationer, fra mobile enheder til højtydende servere.
Kontekstuel forståelse
Med et kontekstvindue på 128K tokens kan Qwen 3-modeller opretholde sammenhæng over længerevarende interaktioner, hvilket gør dem dygtige til opgaver, der kræver dyb kontekstuel forståelse, såsom generering af langformatindhold og kompleks problemløsning.
Udviklingen af Qwen-serien
Fra Qwen til Qwen 3
Qwen-serien har gennemgået en betydelig udvikling:
- QwenIntroduceret som de grundlæggende forudtrænede sprogmodeller, der demonstrerer overlegen ydeevne på tværs af forskellige opgaver.
- Qwen-chatChatmodeller er finjusteret med menneskelige justeringsteknikker, der viser avancerede værktøjsbrugs- og planlægningsfunktioner.
- Qwen2Udvidede modelpakken med instruktionsafstemte sprogmodeller med parameterområder fra 0.5 til 72 milliarder. Flagskibsmodellen, Qwen2-72B, udviste bemærkelsesværdig ydeevne på tværs af forskellige benchmarks.
- Qwen2.5Introducerede modeller som Qwen2.5-Omni, der er i stand til at behandle tekst, billeder, videoer og lyd og generere både tekst- og lydoutput.
- Qwen 3Den seneste iteration, der inkorporerer hybride ræsonnementfunktioner og forbedret effektivitet, markerer en betydelig fremgang i serien.
Benchmark ydeevne
Qwen2.5 overgår tidligere modeller som QwQ og Qwen3 betydeligt og leverer overlegne funktioner inden for matematik, kodning, sund fornuft-ræsonnement, kreativ skrivning og interaktiv dialog. Qwen3-30B-A3B-varianten inkluderer 30.5 milliarder parametre (3.3 milliarder aktiverede), 48 lag, 128 eksperter (8 aktiverede pr. opgave) og understøtter op til 131 token-kontekster med YaRN, hvilket sætter en ny standard blandt open source-modeller.
- AIME25Qwen3 scorede 81.5 point og satte dermed en ny open source-rekord.
- LiveCodeBench: Qwen3 scorede over 70 point, endnu bedre end Grok3.
- ArenaHard: Qwen3 overgik OpenAl-o1 og DeepSeek-FR1 med 95.6 point.
Kodeeksempel
Udviklere kan interagere med Qwen 3-modeller ved hjælp af følgende Python-kodestykke:
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
Dette eksempel demonstrerer, hvordan man indlæser en Qwen 3-model og genererer et svar på en given prompt ved hjælp af Hugging Face Transformers-biblioteket.
Konklusion
Qwen 3 repræsenterer en betydelig milepæl i Alibabas AI-udvikling og tilbyder forbedrede ræsonnementsfunktioner, skalerbarhed og multimodal understøttelse. Dens open source-tilgængelighed under Apache 2.0-licensen fremmer udbredt anvendelse og yderligere innovation inden for AI-fællesskabet. I takt med at AI-landskabet fortsætter med at udvikle sig, positionerer Qwen 3 Alibaba som en formidabel spiller på både den nationale og globale arena.
Sådan ringer du Qwen 3 API fra CometAPI
Qwen 3 API-priser i CometAPI:
| Modelversion | Qwen3 235B A22B | Qwen: Qwen3 30B A3B | Qwen3 8B |
| Pris i CometAPI | Input tokens: $1.6 / M tokens | Input tokens: $0.4/M poletter | Input tokens: $0.32 / M tokens |
| Output tokens: $4.8 / M tokens | Output tokens: $1.2 / M tokens | Output tokens: $0.96 / M tokens | |
| modelnavn | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| illustrere | Dette er flagskibsmodellen i Qwen3-serien med 235 milliarder parametre, der bruger en Mixture of Experts (MoE)-arkitektur. | qwen3-30b-a3b: Med 30 milliarder parametre balancerer den ydeevne og ressourcekrav og er velegnet til applikationer på virksomhedsniveau. | En letvægtsmodel med 800 millioner parametre, designet specifikt til ressourcebegrænsede miljøer (f.eks. mobile enheder eller servere med lav konfiguration). |
Påkrævede trin
- Log ind på cometapi.com. Hvis du ikke er vores bruger endnu, bedes du registrere dig først
- Få adgangslegitimations-API-nøglen til grænsefladen. Klik på "Tilføj token" ved API-tokenet i det personlige center, få token-nøglen: sk-xxxxx og send.
- Hent url'en til dette websted: https://api.cometapi.com/
Brugsmetoder
- Vælg "
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” endepunkt for at sende API-anmodningen og indstille anmodningsteksten. Forespørgselsmetoden og anmodningsteksten er hentet fra vores websteds API-dokument. Vores websted tilbyder også Apifox-test for din bekvemmelighed. - Erstatte med din faktiske CometAPI-nøgle fra din konto.
- Indsæt dit spørgsmål eller din anmodning i indholdsfeltet – det er det, modellen vil reagere på.
- . Behandle API-svaret for at få det genererede svar.
For model frokost information i Comet API, se venligst https://api.cometapi.com/new-model.
For modelprisoplysninger i Comet API, se venligst https://api.cometapi.com/pricing.
Se også Qwen 2.5 Max API



