اپریل 2025 میں، علی بابا کلاؤڈ نے Qwen3 لانچ کیا، جو کہ بڑے زبان کے ماڈلز (LLMs) کی Qwen سیریز کا تازہ ترین ورژن ہے۔ مصنوعی ذہانت کے میدان میں ایک اہم پیشرفت کے طور پر، Qwen3 زبان کی تفہیم، استدلال، ملٹی موڈل پروسیسنگ، اور کمپیوٹیشنل کارکردگی میں شاندار صلاحیتوں کا مظاہرہ کرتا ہے۔ ماڈل 119 زبانوں کو سپورٹ کرتا ہے، اسے 36 ٹریلین ٹوکنز کے ڈیٹاسیٹ پر تربیت دی جاتی ہے، اور 0.6 بلین سے 235 بلین پیرامیٹرز تک مختلف ماڈل سائز پیش کرتا ہے۔ یہ مضمون Qwen3 کی تعریف، خصوصیات، استعمال کے طریقوں، رسائی کے طریقوں، دوسرے ماڈلز کے ساتھ موازنہ، اور AI ڈومین پر اس کے ممکنہ اثرات کی گہرائی سے تحقیق فراہم کرتا ہے، جس کا مقصد ڈویلپرز، محققین اور کاروباری اداروں کے لیے ایک جامع حوالہ کے طور پر کام کرنا ہے۔
Qwen3 کیا ہے؟
Qwen3 بڑے زبان کے ماڈلز کا ایک سلسلہ ہے جو انسان نما متن کو سمجھنے اور تخلیق کرنے کے لیے ڈیزائن کیا گیا ہے، جو روزمرہ کی گفتگو سے لے کر پیچیدہ استدلال کے کاموں تک مختلف منظرناموں کے لیے موزوں ہے۔ یہ 2023 میں Qwen اور 2 میں Qwen2024 کی ریلیز کے بعد، علی بابا کلاؤڈ کی طرف سے تیار کردہ Qwen سیریز کی تیسری نسل ہے، جس نے کارکردگی اور فعالیت میں بہتری متعارف کرائی ہے۔
کیوین سیریز کی مختصر تاریخ
Qwen سیریز کا آغاز اپریل 2023 میں Qwen ماڈل کی ریلیز کے ساتھ ہوا، جس کا ابتدائی نام "Tongyi Qianwen" ہے، جو Meta AI کے Llama فن تعمیر پر مبنی ہے۔ ستمبر 2023 میں چینی حکومت سے منظوری حاصل کرنے کے بعد، Qwen کو سرکاری طور پر عوام کے لیے جاری کر دیا گیا۔ دسمبر 2023 میں، Qwen 72B اور 1.8B ماڈلز کو اوپن سورس بنایا گیا، اس کے بعد جون 2 میں Qwen2024 کا آغاز ہوا، جس نے ماہرین کا مرکب (MoE) فن تعمیر اپنایا۔ اپریل 3 میں متعارف کرایا گیا Qwen2025، ہائبرڈ استدلال کی صلاحیتوں اور ملٹی موڈل فنکشنلٹیز کو شامل کرتا ہے، جو اسے سیریز کا سب سے جدید ورژن بناتا ہے۔
Qwen3 کی خصوصیات
Qwen3 جدید خصوصیات کی ایک رینج پیش کرتا ہے جو اسے عالمی AI ماڈل کے منظر نامے میں ممتاز کرتی ہے:
بہزبانی سپورٹ
Qwen3 119 زبانوں کو سپورٹ کرتا ہے، جس میں بڑے عالمی زبان کے نظام کا احاطہ کیا جاتا ہے۔ یہ اسے بین الثقافتی اور کثیر لسانی ایپلی کیشنز کے لیے ایک مثالی انتخاب بناتا ہے، جیسے کہ بین الاقوامی کسٹمر سپورٹ اور کثیر لسانی مواد کی تیاری۔
بڑے پیمانے پر تربیتی ڈیٹا
Qwen3 ٹریننگ ڈیٹاسیٹ تقریباً 36 ٹریلین ٹوکنز پر مشتمل ہے، جو تقریباً 270 بلین الفاظ کے برابر ہے۔ اس میں مواد کی ایک وسیع رینج شامل ہے، جیسے کہ نصابی کتابیں، سوال و جواب کے جوڑے، کوڈ کے ٹکڑوں، اور AI سے تیار کردہ مواد، بنیادی طور پر چینی اور انگریزی میں۔ یہ پیمانہ زبان کی تفہیم اور نسل میں اس کی بہترین کارکردگی کو یقینی بناتا ہے۔
متنوع ماڈل سائز
Qwen3 0.6 بلین سے لے کر 235 بلین پیرامیٹرز تک مختلف قسم کے ماڈل سائز پیش کرتا ہے:
- چھوٹے ماڈلز (0.6B، 1.7B): ہلکے وزن کی ایپلی کیشنز کے لیے موزوں، اسمارٹ فونز جیسے آلات پر چلنے کے قابل۔
- درمیانے ماڈلز (4B, 8B, 14B, 32B): وسائل کی ضروریات کے ساتھ کارکردگی کا توازن، زیادہ تر ترقیاتی منظرناموں پر لاگو ہوتا ہے۔
- بڑے ماڈلز (235B): انٹرپرائز کی سطح کے کاموں کے لیے اعلیٰ درجے کی کارکردگی فراہم کریں۔
| ماڈل کا نام | پیرامیٹر کا سائز | سیاق و سباق کی کھڑکی (ٹوکنز) | قابل اطلاق منظر |
|---|---|---|---|
| Qwen3-0.6B | 0.6 ارب | 32,768 | موبائل ڈیوائسز، ہلکی پھلکی ایپلی کیشنز |
| Qwen3-1.7B | 1.7 ارب | 32,768 | ایمبیڈڈ سسٹمز، تیز استدلال |
| Qwen3-4B | 4 ارب | 131,072 | چھوٹے سے درمیانے درجے کے منصوبے، تحقیق |
| Qwen3-8B | 8 ارب | 131,072 | عام ایپلی کیشنز، ترقی |
| Qwen3-32B | 32 ارب | 131,072 | اعلی کارکردگی کے کام، انٹرپرائز ایپلی کیشنز |
| Qwen3-235B-A22B | 235 ارب | 131,072 | اعلی درجے کی کارکردگی، پیچیدہ استدلال (عوامی طور پر دستیاب نہیں) |
ہائبرڈ استدلال کی صلاحیتیں۔
Qwen3 نے ایک "ہائبرڈ استدلال" کی خصوصیت متعارف کرائی ہے جو ماڈل کو پیچیدہ سوالات کے جوابات فراہم کرنے سے پہلے قدم بہ قدم استدلال کرنے کی اجازت دیتی ہے۔ یہ صلاحیت منطقی استدلال، ریاضی کے مسائل اور پروگرامنگ کے کاموں میں خاص طور پر نمایاں ہے۔ صارفین ترتیبات کے ذریعے اس موڈ کو فعال یا غیر فعال کر سکتے ہیں (مثال کے طور پر، enable_thinking=True).
ماہرین کا مرکب (MoE) ماڈل
Qwen3 میں ماہرین کے ماڈلز کا مرکب شامل ہے، جیسے Qwen3-30B-A3B (30 بلین پیرامیٹرز، 3 بلین فعال) اور Qwen3-235B-A22B (235 بلین پیرامیٹرز، 22 بلین فعال)۔ یہ ماڈل اعلی کارکردگی کو برقرار رکھتے ہوئے پیرامیٹرز کے صرف ایک ذیلی سیٹ کو چالو کر کے تخمینہ کو تیز کرتے ہیں، انہیں بڑے پیمانے پر تعیناتی کے لیے موزوں بناتے ہیں۔
ٹوکن کی توسیع شدہ حدود
کچھ Qwen3 ماڈلز 131,072 ٹوکنز (ماڈل 4B اور اس سے اوپر) کی سیاق و سباق کی ونڈوز کو سپورٹ کرتے ہیں، جو Qwen2 کے 32,768 ٹوکنز سے نمایاں اضافہ ہے۔ یہ اضافہ ماڈل کو طویل مکالموں اور زیادہ پیچیدہ ٹیکسٹ جنریشن کے کاموں کو سنبھالنے کی اجازت دیتا ہے۔

Qwen 3 بینچ مارکس
یہ ماڈل کوڈ جنریشن، ڈیبگنگ، اور ریاضی کے مسائل حل کرنے میں مہارت کا مظاہرہ کرتا ہے، جو اسے سافٹ ویئر کی ترقی اور ڈیٹا کے تجزیہ کے لیے ایک قابل قدر ٹول بناتا ہے۔

Qwen3 کا استعمال کیسے کریں۔
درخواستیں
Qwen3 کی استعداد اسے مختلف منظرناموں کے لیے موزوں بناتی ہے:
- چیٹ بوٹس اور ورچوئل اسسٹنٹ: کسٹمر سپورٹ اور پرسنل اسسٹنٹ ایپلیکیشنز کے لیے قدرتی، سیاق و سباق سے آگاہ جوابات فراہم کریں۔
- مواد کی تخلیق: مضامین، کہانیاں، کوڈ، اور دیگر تخلیقی یا تکنیکی مواد تیار کریں۔
- ڈیٹا تجزیہ: تحقیق اور کاروباری ذہانت کے لیے بڑے ڈیٹا سیٹس کی تشریح اور خلاصہ کرنے میں مدد کریں۔
- تعلیمی اوزار: ہوم ورک، وضاحتوں اور ذاتی نوعیت کے سیکھنے کے تجربات میں طلباء کی مدد کریں۔
- سائنسی تحقیق: ادب کے جائزے، مفروضے کی تخلیق، اور سائنسی مسائل کے حل کی حمایت کریں۔
پروجیکٹ انٹیگریشن
ڈویلپر درج ذیل فریم ورک اور ٹولز کا استعمال کرتے ہوئے Qwen3 کو اپنے پروجیکٹس میں ضم کر سکتے ہیں۔
- ٹرانسفارمر: ضرورت ہے
transformers>=4.51.0. مثال کوڈ کا ٹکڑا:
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
outputs = model.generate(**inputs, enable_thinking=True)
print(tokenizer.decode(outputs))
صارفین استدلال کے موڈ کو فعال کر سکتے ہیں۔ enable_thinking=True یا اسے استعمال کرکے کنٹرول کریں۔ /think اور /nothink.
- llama.cpp: ضرورت ہے
llama.cpp>=b5092. کمانڈ لائن مثال:
./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
- علامہ: ضرورت ہے
Ollama v0.6.6یا اس سے زیادہ کمانڈ چلائیں:
ollama run qwen3:8b
جیسے پیرامیٹرز کی حمایت کرتا ہے۔ num_ctx 40960 اور num_predict 32768.
- تعیناتی کے اختیارات:
- SGLang: ضرورت ہے
sglang>=0.4.6.post1. کمانڈ لانچ کریں:python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3 - vLLM: ضرورت ہے
vllm>=0.8.5. سروس کمانڈ:vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1 - MindIE: Ascend NPU کی حمایت کرتا ہے؛ تفصیلات کے لیے ماڈلرز ملاحظہ کریں۔
آلے کا استعمال
Qwen-Agent بیرونی ٹولز اور APIs کے ساتھ Qwen3 کے تعامل کی حمایت کرتا ہے، ایسے کاموں کے لیے موزوں ہے جن کو متحرک ڈیٹا تک رسائی کی ضرورت ہوتی ہے۔ اس خصوصیت کو SGLang، vLLM، Transformers، llama.cpp، اور Ollama سے بھی تعاون حاصل ہے۔
فائن ٹیوننگ
Qwen3 کو Axolotl، UnSloth، Swift، اور Llama-Factory، سپروائزڈ فائن ٹیوننگ (SFT)، ڈائریکٹ پرفرنس آپٹیمائزیشن (DPO)، اور گروپ مضبوط ترجیحی اصلاح (GRPO) جیسی معاون تکنیکوں کا استعمال کرتے ہوئے ٹھیک بنایا جا سکتا ہے۔
نتیجہ
Qwen3 بڑے لینگویج ماڈلز کے میدان میں ایک پیش رفت کی نمائندگی کرتا ہے، جو بہتر فعالیت، استعداد اور رسائی کی پیشکش کرتا ہے۔ اپنی کثیر لسانی معاونت، ہائبرڈ استدلال، اور وژن، ریاضی اور آڈیو کاموں کے لیے خصوصی ورژن کے ساتھ، Qwen3 خود کو AI فیلڈ میں ایک کلیدی کھلاڑی کے طور پر رکھتا ہے۔ کوڈفورسز، اے آئی ایم ای، اور بی ایف سی ایل جیسے بینچ مارکس میں اس کی مسابقتی کارکردگی، اس کے اوپن سورس کی دستیابی کے ساتھ، اسے ڈویلپرز، محققین، اور کاروباری اداروں کے لیے ایک مثالی انتخاب بناتی ہے۔ جیسے جیسے AI ٹیکنالوجی ترقی کرتی ہے، Qwen3 ایسے ذہین نظاموں کی تخلیق کی طرف ایک اہم قدم کی نشاندہی کرتا ہے جو دنیا کے ساتھ تیزی سے نفیس طریقوں سے سمجھنے، استدلال کرنے اور بات چیت کرنے کے قابل ہوں۔
شروع
ڈویلپرز رسائی حاصل کر سکتے ہیں۔ Qwen 3 API کے ذریعے CometAPI. شروع کرنے کے لیے، کھیل کے میدان میں ماڈل کی صلاحیتوں کو دریافت کریں اور اس سے مشورہ کریں۔ API گائیڈ تفصیلی ہدایات کے لیے۔ نوٹ کریں کہ کچھ ڈویلپرز کو ماڈل استعمال کرنے سے پہلے اپنی تنظیم کی تصدیق کرنے کی ضرورت پڑ سکتی ہے۔
