Qwen3: ما هو وكيفية استخدامه

CometAPI
AnnaApr 29, 2025
Qwen3: ما هو وكيفية استخدامه

في أبريل 2025، أطلقت علي بابا كلاود Qwen3، أحدث إصدار من سلسلة Qwen لنماذج اللغات الكبيرة (LLMs). ويُعدّ Qwen3 تقدمًا هامًا في مجال الذكاء الاصطناعي، إذ يُظهر قدراتٍ متميزة في فهم اللغات، والاستدلال، والمعالجة متعددة الوسائط، والكفاءة الحسابية. يدعم النموذج 119 لغة، ويتم تدريبه على مجموعة بيانات تضم 36 تريليون رمز، ويوفر أحجام نماذج متنوعة تتراوح بين 0.6 مليار و235 مليار معلمة. تُقدم هذه المقالة استكشافًا مُعمّقًا لتعريف Qwen3، وميزاته، وطرق استخدامه، وأساليب الوصول إليه، ومقارناته مع النماذج الأخرى، وتأثيره المُحتمل على مجال الذكاء الاصطناعي، بهدف أن يكون مرجعًا شاملًا للمطورين والباحثين والشركات.

ما هو Qwen3؟

Qwen3 هي سلسلة من نماذج اللغة الكبيرة المصممة لفهم وإنشاء نصوص شبيهة بالنصوص البشرية، وهي مناسبة لمجموعة متنوعة من السيناريوهات، من المحادثات اليومية إلى مهام التفكير المعقدة. وهي الجيل الثالث من سلسلة Qwen التي طورتها Alibaba Cloud، بعد إصدار Qwen في عام 2023 وQwen2 في عام 2024، واللذين قدما تحسينات في الأداء والوظائف.

نبذة تاريخية عن سلسلة Qwen

بدأت سلسلة Qwen في أبريل 2023 بإصدار نموذج Qwen، الذي سُمي في البداية "Tongyi Qianwen"، والمبني على بنية Llama من Meta AI. بعد الحصول على موافقة الحكومة الصينية في سبتمبر 2023، طُرح Qwen رسميًا للجمهور. في ديسمبر 2023، أصبح نموذجا Qwen 72B و1.8B مفتوحي المصدر، ثم أُطلق Qwen2 في يونيو 2024، والذي اعتمد بنية مزيج الخبراء (MoE). أما Qwen3، الذي طُرح في أبريل 2025، فيتضمن قدرات تفكير هجينة ووظائف متعددة الوسائط، مما يجعله الإصدار الأكثر تطورًا في السلسلة.

مميزات Qwen3

يقدم Qwen3 مجموعة من الميزات المبتكرة التي تميزه في مشهد نموذج الذكاء الاصطناعي العالمي:

دعم متعدد اللغات

يدعم Qwen3 119 لغة، مُغطيًا بذلك أنظمة اللغات العالمية الرئيسية. هذا يجعله خيارًا مثاليًا للتطبيقات متعددة الثقافات واللغات، مثل دعم العملاء الدولي وإنشاء محتوى متعدد اللغات.

بيانات التدريب واسعة النطاق

تتكون مجموعة بيانات تدريب Qwen3 من حوالي 36 تريليون رمز، أي ما يعادل حوالي 270 مليار كلمة. وتشمل مجموعة واسعة من المحتوى، مثل الكتب المدرسية، وأزواج الأسئلة والأجوبة، ومقاطع الأكواد البرمجية، والمحتوى المُولّد بالذكاء الاصطناعي، باللغتين الصينية والإنجليزية بشكل أساسي. يضمن هذا المقياس أداءً ممتازًا في فهم اللغة وتوليدها.

أحجام نماذج متنوعة

يقدم Qwen3 مجموعة متنوعة من أحجام النماذج تتراوح من 0.6 مليار إلى 235 مليار معلمة:

  • النماذج الصغيرة (0.6B، 1.7B): مناسب للتطبيقات خفيفة الوزن، وقادرة على التشغيل على الأجهزة مثل الهواتف الذكية.
  • الموديلات المتوسطة (4B، 8B، 14B، 32B): تحقيق التوازن بين الأداء واحتياجات الموارد، بما ينطبق على معظم سيناريوهات التطوير.
  • النماذج الكبيرة (235B): توفير أداء من الدرجة الأولى للمهام على مستوى المؤسسة.
نموذج الاسمحجم المعلمةنافذة السياق (الرموز)سيناريوهات قابلة للتطبيق
Qwen3-0.6B0.6 مليار32,768الأجهزة المحمولة والتطبيقات خفيفة الوزن
Qwen3-1.7B1.7 مليار32,768الأنظمة المضمنة، التفكير السريع
Qwen3-4B4 مليار131,072المشاريع الصغيرة والمتوسطة الحجم والبحوث
Qwen3-8B8 مليار131,072التطبيقات العامة والتطوير
Qwen3-32B32 مليار131,072المهام عالية الأداء وتطبيقات المؤسسات
Qwen3-235B-A22B235 مليار131,072أداء من الدرجة الأولى، تفكير معقد (غير متاح للعامة)

قدرات التفكير الهجين

يُقدّم Qwen3 ميزة "التفكير الهجين" التي تُمكّن النموذج من التفكير خطوة بخطوة قبل تقديم إجابات للأسئلة المعقدة. تُعد هذه الميزة بارزة بشكل خاص في التفكير المنطقي، والمسائل الرياضية، ومهام البرمجة. يُمكن للمستخدمين تفعيل هذا الوضع أو تعطيله من خلال الإعدادات (مثل: enable_thinking=True).

نماذج مزيج الخبراء (وزارة التعليم)

يتضمن Qwen3 نماذج "مزيج الخبراء"، مثل Qwen3-30B-A3B (30 مليار معلمة، 3 مليارات نشطة) وQwen3-235B-A22B (235 مليار معلمة، 22 مليار نشطة). تُسرّع هذه النماذج الاستدلال بتفعيل مجموعة فرعية فقط من المعلمات مع الحفاظ على أداء عالٍ، مما يجعلها مناسبة تمامًا للنشر على نطاق واسع.

حدود الرمز الموسعة

تدعم بعض طرز Qwen3 نوافذ سياقية تصل إلى 131,072 رمزًا (الطرازات 4B فما فوق)، وهي زيادة ملحوظة عن 2 رمزًا في Qwen32,768. يتيح هذا التحسين للنموذج التعامل مع حوارات أطول ومهام إنشاء نصوص أكثر تعقيدًا.

كوين3

معايير Qwen 3

يوضح النموذج الكفاءة في إنشاء التعليمات البرمجية وتصحيح الأخطاء وحل المشكلات الرياضية، مما يجعله أداة قيمة لتطوير البرمجيات وتحليل البيانات.

Qwen3: ما هو وكيفية استخدامه

كيفية استخدام Qwen3

ذكية ومتخصصة

إن تعدد استخدامات Qwen3 يجعله مناسبًا للعديد من السيناريوهات:

  • روبوتات المحادثة والمساعدات الافتراضية: توفير استجابات طبيعية واعية للسياق لتطبيقات دعم العملاء والمساعد الشخصي.
  • إنشاء المحتوى: إنشاء مقالات وقصص وأكواد ومحتوى إبداعي أو تقني آخر.
  • تحليل البيانات: المساعدة في تفسير وتلخيص مجموعات البيانات الكبيرة لأغراض البحث وذكاء الأعمال.
  • الأدوات التعليمية: مساعدة الطلاب في أداء واجباتهم المنزلية، وتقديم الشروحات، وتجارب التعلم الشخصية.
  • بحث علمي: دعم مراجعة الأدبيات، وتوليد الفرضيات، وحل المشكلات العلمية.

تكامل المشروع

يمكن للمطورين دمج Qwen3 في مشاريعهم باستخدام الأطر والأدوات التالية:

  • محولات: يتطلب transformers>=4.51.0. مثال على مقتطف الكود:
  from transformers import AutoModelForCausalLM, AutoTokenizer
  model = AutoModelForCausalLM.from_pretrained("Qwen/Qwen3-8B")
  tokenizer = AutoTokenizer.from_pretrained("Qwen/Qwen3-8B")
  inputs = tokenizer("Hello, how can I assist you?", return_tensors="pt")
  outputs = model.generate(**inputs, enable_thinking=True)
  print(tokenizer.decode(outputs))

يمكن للمستخدمين تمكين وضع الاستدلال باستخدام enable_thinking=True أو التحكم فيه باستخدام /think و /nothink.

  • لاما.cpp: يتطلب llama.cpp>=b5092. مثال على سطر الأوامر:
  ./llama-cli -hf Qwen/Qwen3-8B-GGUF:Q8_0 --jinja --color -ngl 99 -fa -sm row --temp 0.6 --top-k 20 --top-p 0.95 --min-p 0 -c 40960 -n 32768 --no-context-shift
  • أولاما: يتطلب Ollama v0.6.6 أو أعلى. أمر التشغيل:
  ollama run qwen3:8b

يدعم المعلمات مثل num_ctx 40960 و num_predict 32768.

  • خيارات النشر:
  • لغة SGLang: يتطلب sglang>=0.4.6.post1. أمر التشغيل: python -m sglang.launch_server --model-path Qwen/Qwen3-8B --port 30000 --reasoning-parser qwen3
  • vLLM: يتطلب vllm>=0.8.5. أمر الخدمة: vllm serve Qwen/Qwen3-8B --port 8000 --enable-reasoning --reasoning-parser deepseek_r1
  • ميندي: يدعم Ascend NPU؛ قم بزيارة Modelers للحصول على التفاصيل.

استخدام الأداة

يدعم Qwen-Agent تفاعل Qwen3 مع الأدوات الخارجية وواجهات برمجة التطبيقات، وهو مناسب للمهام التي تتطلب وصولاً ديناميكيًا للبيانات. تدعم هذه الميزة أيضًا SGLang وvLLM وTransformers وllama.cpp وOllama.

الكون المثالى

يمكن ضبط Qwen3 باستخدام أطر عمل مثل Axolotl وUnSloth وSwift وLlama-Factory، ودعم تقنيات مثل الضبط الدقيق المشرف (SFT)، وتحسين التفضيلات المباشرة (DPO)، وتحسين التفضيلات القوية للمجموعة (GRPO).

الخاتمة

يُمثل Qwen3 نقلة نوعية في مجال نماذج اللغات الكبيرة، إذ يُقدم وظائف مُحسّنة، وتعدد استخدامات، وسهولة وصول مُحسّنة. بفضل دعمه متعدد اللغات، وإمكانية التفكير الهجين، وإصداراته المُخصصة لمهام الرؤية والرياضيات والصوت، يُرسّخ Qwen3 مكانته كلاعب رئيسي في مجال الذكاء الاصطناعي. أداؤه التنافسي في معايير مثل Codeforces وAIME وBFCL، بالإضافة إلى توفره مفتوح المصدر، يجعله خيارًا مثاليًا للمطورين والباحثين والشركات. مع تطور تكنولوجيا الذكاء الاصطناعي، يُمثل Qwen3 خطوة مهمة نحو بناء أنظمة ذكية قادرة على فهم العالم، والتفكير، والتفاعل معه بطرق مُتطورة بشكل متزايد.

كيف تبدأ

يمكن للمطورين الوصول كوين 3 API من خلال كوميت ايه بي اي. للبدء، استكشف قدرات النموذج في ساحة اللعب واستشر دليل واجهة برمجة التطبيقات للحصول على تعليمات مفصلة. يُرجى ملاحظة أن بعض المطورين قد يحتاجون إلى التحقق من مؤسستهم قبل استخدام النموذج.

اقرأ المزيد

500+ نموذج في واجهة برمجة تطبيقات واحدة

خصم يصل إلى 20%