Qwen 3 API er et OpenAI-kompatibelt grensesnitt utviklet av Alibaba Cloud, som lar utviklere integrere avanserte Qwen 3-språkmodeller – tilgjengelig i både tette og ekspertbaserte arkitekturer (MoE) – i applikasjonene sine for oppgaver som tekstgenerering, resonnement og flerspråklig støtte.
Qwen 3 Oversikt
Viktige funksjoner
- Hybride resonneringsevnerQwen 3 integrerer både konvensjonelle AI-funksjoner og avansert dynamisk resonnement, noe som forbedrer tilpasningsevne og effektivitet for utviklere.
- skalerbarhetModellfamilien inkluderer både tette (0.6B til 32B parametere) og sparsomme modeller (30B med 3B aktiverte parametere, 235B med 22B aktiverte parametere), som dekker et bredt spekter av bruksområder.
- Utvidet kontekstvinduDe fleste Qwen 3-modeller støtter et kontekstvindu på 128 XNUMX tokens, noe som forenkler behandlingen av lange dokumenter og komplekse oppgaver.
- Multimodal støtteQwen 3-modeller kan behandle tekst, bilder, lyd og video, noe som gjør dem egnet for ulike bruksområder, inkludert taleinteraksjoner i sanntid og visuell dataanalyse.
- Tilgjengelighet med åpen kildekodeAlle Qwen 3-modeller er lisensiert under Apache 2.0-lisensen og er tilgjengelige gjennom plattformer som Hugging Face og ModelScope.
Teknisk arkitektur
Modellvarianter
Qwen 3 omfatter en rekke modeller for å dekke ulike beregningsbehov:
- Tette modellerTilgjengelig i størrelsene 0.6B, 1.7B, 4B, 8B, 14B og 32B parametere.
- Sparsomme modellerInkluder en 30B-modell med 3B aktiverte parametere og en 235B-modell med 22B aktiverte parametere.
Arkitekturen muliggjør effektiv distribusjon på tvers av ulike maskinvarekonfigurasjoner, fra mobile enheter til høyytelsesservere.
Kontekstuell forståelse
Med et kontekstvindu på 128 3 tokener kan Qwen XNUMX-modeller opprettholde koherens over lengre interaksjoner, noe som gjør dem dyktige til oppgaver som krever dyp kontekstuell forståelse, for eksempel generering av langformatinnhold og kompleks problemløsning.
Utviklingen av Qwen-serien
Fra Qwen til Qwen 3
Qwen-serien har gjennomgått en betydelig utvikling:
- QwenIntrodusert som grunnleggende forhåndstrente språkmodeller, som demonstrerer overlegen ytelse på tvers av ulike oppgaver.
- Qwen-ChatChatmodeller finjustert med menneskelige justeringsteknikker, som viser frem avansert verktøybruk og planleggingsmuligheter.
- Qwen2Utvidet modellserien med instruksjonstilpassede språkmodeller, med parameterområder fra 0.5 til 72 milliarder. Flaggskipmodellen, Qwen2-72B, viste bemerkelsesverdig ytelse på tvers av ulike referansepunkter.
- Qwen2.5Introduserte modeller som Qwen2.5-Omni, som er i stand til å behandle tekst, bilder, videoer og lyd, og generere både tekst- og lydutganger.
- Qwen 3Den nyeste iterasjonen, som inkluderer hybride resonneringsmuligheter og forbedret effektivitet, markerer et betydelig fremskritt i serien.
Benchmark ytelse
Qwen2.5 overgår tidligere modeller som QwQ og Qwen3 betydelig, og leverer overlegne funksjoner innen matematikk, koding, sunn fornuft, kreativ skriving og interaktiv dialog. Qwen3-30B-A3B-varianten inkluderer 30.5 milliarder parametere (3.3 milliarder aktiverte), 48 lag, 128 eksperter (8 aktiverte per oppgave) og støtter opptil 131 XNUMX token-kontekster med YaRN, noe som setter en ny standard blant modeller med åpen kildekode.
- AIME25Qwen3 scoret 81.5 poeng, og satte dermed ny rekord for åpen kildekode.
- LiveCodeBench: Qwen3 scoret over 70 poeng, enda bedre enn Grok3.
- ArenaHard: Qwen3 slo OpenAl-o1 og DeepSeek-FR1 med 95.6 poeng.
Kodeeksempel
Utviklere kan samhandle med Qwen 3-modeller ved å bruke følgende Python-kodebit:
from transformers import AutoTokenizer, AutoModelForCausalLM
# Load tokenizer and model
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen-3-14B")
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen-3-14B")
# Encode input prompt
input_text = "Explain the significance of hybrid reasoning in AI models."
input_ids = tokenizer.encode(input_text, return_tensors="pt")
# Generate response
output = model.generate(input_ids, max_length=200)
response = tokenizer.decode(output, skip_special_tokens=True)
print(response)
Dette eksemplet demonstrerer hvordan du laster inn en Qwen 3-modell og genererer et svar på en gitt prompt ved hjelp av Hugging Face Transformers-biblioteket.
Konklusjon
Qwen 3 representerer en betydelig milepæl i Alibabas AI-utvikling, og tilbyr forbedrede resonneringsmuligheter, skalerbarhet og multimodal støtte. Tilgjengeligheten av åpen kildekode under Apache 2.0-lisensen oppmuntrer til bred adopsjon og ytterligere innovasjon innen AI-fellesskapet. Etter hvert som AI-landskapet fortsetter å utvikle seg, posisjonerer Qwen 3 Alibaba som en formidabel aktør både på nasjonale og globale arenaer.
Hvordan ringe Qwen 3 API fra CometAPI
Qwen 3 API-priser i CometAPI:
| Modellversjon | Qwen3 235B A22B | Qwen: Qwen3 30B A3B | Qwen3 8B |
| Pris i CometAPI | Input tokens: $1.6 / M tokens | Input tokens: $0.4/M tokens | Input tokens: $0.32 / M tokens |
| Output tokens: $4.8 / M tokens | Output tokens: $1.2 / M tokens | Output tokens: $0.96 / M tokens | |
| modell navn | qwen3-235b-a22b | qwen3-30b-a3b | qwen3-8b |
| illustrere | Dette er flaggskipmodellen i Qwen3-serien, med 235 milliarder parametere, som bruker en Mixture of Experts (MoE)-arkitektur. | qwen3-30b-a3b: Med 30 milliarder parametere balanserer den ytelse og ressurskrav, egnet for applikasjoner på bedriftsnivå. | En lettvektsmodell med 800 millioner parametere, spesielt utviklet for ressursbegrensede miljøer (som mobile enheter eller servere med lav konfigurasjon). |
Nødvendige trinn
- Logg på cometapi.com. Hvis du ikke er vår bruker ennå, vennligst registrer deg først
- Få tilgangslegitimasjons-API-nøkkelen til grensesnittet. Klikk "Legg til token" ved API-tokenet i det personlige senteret, hent tokennøkkelen: sk-xxxxx og send inn.
- Få url til dette nettstedet: https://api.cometapi.com/
Bruksmetoder
- Velg "
qwen3-235b-a22b""qwen3-30b-a3b""qwen3-8b” endepunkt for å sende API-forespørselen og angi forespørselsteksten. Forespørselsmetoden og forespørselsteksten er hentet fra vårt API-dokument for nettstedet vårt. Vårt nettsted gir også Apifox-test for din bekvemmelighet. - Erstatt med din faktiske CometAPI-nøkkel fra kontoen din.
- Sett inn spørsmålet eller forespørselen din i innholdsfeltet – det er dette modellen vil svare på.
- . Behandle API-svaret for å få det genererte svaret.
For modelllunsjinformasjon i Comet API, se https://api.cometapi.com/new-model.
For modellprisinformasjon i Comet API, se https://api.cometapi.com/pricing.
Se også Qwen 2.5 Max API



