Home/Models/Aliyun/qwen3.5-397b-a17b
Q

qwen3.5-397b-a17b

مدخل:$0.48/M
الإخراج:$2.88/M
نموذج الرؤية-اللغة الأصلي Qwen3.5 series 397B-A17B مبني على بنية هجينة تدمج آلية انتباه خطية مع نموذج خليط الخبراء المتناثر، ما يحقق كفاءة أعلى في الاستدلال.
جديد
الاستخدام التجاري
Playground
نظرة عامة
الميزات
التسعير
API

المواصفات التقنية لـ Qwen3.5-397B-A17B

العنصرQwen3.5-397B-A17B (أوزان مفتوحة مُدرَّبة لاحقًا)
عائلة النموذجQwen3.5 (سلسلة Tongyi Qwen، Alibaba)
البنيةمزيج خبراء هجيني (MoE) + Gated DeltaNet؛ تدريب متعدد الوسائط بدمج مبكر
إجمالي المعاملات~397 مليار (إجمالي)
المعاملات النشطة (A17B)~17 مليار نشطة لكل رمز (توجيه متفرق)
أنواع الإدخالنص، صورة، فيديو (دمج مبكر متعدد الوسائط)
أنواع الإخراجنص (دردشة، كود، مخرجات RAG)، تحويل صورة إلى نص، استجابات متعددة الوسائط
نافذة السياق الأصلية262,144 رموز (ISL الأصلي)
سياق قابل للتوسعةحتى ~1,010,000 رمز عبر YaRN/ RoPE scaling (حسب المنصة)
أقصى رموز للإخراجيعتمد على الإطار/الخدمة (تُظهر الأدلة أمثلة 81,920–131,072)
اللغاتأكثر من 200 لغة ولهجة
تاريخ الإصدار16 فبراير 2026 (إصدار أوزان مفتوحة)
الترخيصApache‑2.0 (أوزان مفتوحة على Hugging Face / ModelScope)

ما هو Qwen3.5-397B-A17B

Qwen3.5-397B-A17B هو أول إصدار بأوزان مفتوحة ضمن عائلة Qwen3.5 من Alibaba: نموذج تأسيسي كبير متعدد الوسائط من نوع مزيج الخبراء، مُدرّب على أهداف الرؤية-اللغة بدمج مبكر ومُحسّن لسير العمل القائم على الوكلاء. يكشف النموذج عن السعة الكاملة لبنية ذات 397 مليار مُعامل، مع استخدام التوجيه المتفرق (لاحقة “A17B”) بحيث تكون ~17 مليار مُعامل نشطة لكل رمز—ما يوفّر توازناً بين سعة المعرفة وكفاءة الاستدلال.

هذا الإصدار مخصص للباحثين وفرق الهندسة التي تحتاج إلى نموذج تأسيسي مفتوح، قابل للنشر، ومتعدد الوسائط قادر على الاستدلال طويل السياق، والفهم البصري، وتطبيقات الاسترجاع المعزّز/الوكيلية.


الميزات الرئيسية لـ Qwen3.5-397B-A17B

  • MoE متفرق مع كفاءة المعاملات النشطة: سعة عالمية كبيرة (397B) مع نشاط لكل رمز قابل للمقارنة بنموذج كثيف 17B، ما يخفض FLOPS لكل رمز مع الحفاظ على تنوّع المعرفة.
  • تعدد وسائط أصيل (دمج مبكر): مُدرّب على معالجة النصوص والصور والفيديو عبر استراتيجية مُوحَّدة للترميز والمشفّر للاستدلال عبر الأنماط.
  • دعم سياقات طويلة جداً: طول تسلسل الإدخال الأصلي 262K رمز ومسارات موثّقة للتوسعة إلى ~1M+ رموز باستخدام RoPE/YARN scaling لعمليات الاسترجاع وخطوط معالجة المستندات الطويلة.
  • وضع التفكير وأدوات الوكلاء: دعم آثار الاستدلال الداخلية ونمط تنفيذ وكيل؛ أمثلة تشمل تمكين استدعاء الأدوات ودمج مفسّر الشيفرة.
  • أوزان مفتوحة وتوافق واسع: مُصدَر وفق Apache‑2.0 على Hugging Face وModelScope، مع أدلة تكامل من الجهة الأولى لـ Transformers وvLLM وSGLang وأطر المجتمع.
  • تغطية لغوية ملائمة للمؤسسات: تدريب متعدد اللغات على نطاق واسع (200+ لغة)، إضافة إلى تعليمات ووصفات للنشر على نطاق واسع.

Qwen3.5-397B-A17B مقارنة بنماذج مختارة

النموذجنافذة السياق (أصلية)نقاط القوةالمقايضات المعتادة
Qwen3.5-397B-A17B262K (أصلية)MoE متعدد الوسائط، أوزان مفتوحة، سعة 397B مع 17B نشطةملفات نموذج كبيرة، يتطلب استضافة موزّعة لتحقيق الأداء الكامل
GPT-5.2 (مغلق تمثيلي)~400K (مُبلّغ عنها لبعض النسخ)دقة عالية في الاستدلال الكثيف لنموذج واحدأوزان مغلقة، تكلفة استدلال أعلى عند التوسّع
نموذج كثيف بأسلوب LLaMA بحجم 70B~128K (يتفاوت)حزمة استدلال أبسط، VRAM أقل للتشغيل الكثيفسعة معاملات أقل مقارنة بمعرفة MoE العالمية

القيود المعروفة واعتبارات التشغيل

  • البصمة الذاكرية: يتطلب MoE المتفرق تخزين ملفات أوزان كبيرة؛ الاستضافة تتطلب سعة تخزينية وذاكرة جهاز كبيرة مقارنة بنموذج كثيف 17B.
  • تعقيد هندسي: تحقيق إنتاجية مثلى يتطلب توازياً دقيقاً (tensor/pipeline) وأطر عمل مثل vLLM أو SGLang؛ الاستضافة الساذجة على GPU واحد غير عملية.
  • اقتصاد الرموز: رغم تقليل الحوسبة لكل رمز، فإن السياقات الطويلة جداً تزيد من I/O وحجم ذاكرة التخزين المؤقت KV والتكاليف لدى مزوّدي الخدمات المُدارة.
  • السلامة والحواجز التنظيمية: الأوزان المفتوحة تزيد المرونة لكنها تنقل مسؤولية التصفية الأمنية والمراقبة وحواجز النشر إلى المشغّل.

حالات استخدام ممثلة

  1. البحث وتحليل النماذج: الأوزان المفتوحة تمكّن البحث القابل لإعادة الإنتاج والتقييم المجتمعي.
  2. خدمات متعددة الوسائط داخل المؤسسة: المؤسسات التي تحتاج إلى إقامة البيانات يمكنها نشر وتشغيل أحمال الرؤية+النص محلياً.
  3. RAG وخطوط المستندات الطويلة: دعم السياق الطويل أصيلاً يساعد على الاستدلال بتمرير واحد على مجموعات كبيرة.
  4. ذكاء الكود وأدوات الوكلاء: تحليل مستودعات ضخمة، توليد ترقيعات، وتشغيل حلقات استدعاء أدوات وكيلية في بيئات مُتحكَّم بها.
  5. تطبيقات متعددة اللغات: تغطية لغوية واسعة لمنتجات عالمية.

كيفية الوصول إلى Qwen3.5-397B-A17B ودمجه

الخطوة 1: التسجيل للحصول على مفتاح API

سجّل الدخول إلى cometapi.com. إذا لم تكن مستخدماً لدينا بعد، يُرجى التسجيل أولاً. سجّل الدخول إلى CometAPI console. احصل على بيانات اعتماد الوصول لمفتاح واجهة برمجة التطبيقات. انقر على “Add Token” في رمز API بمركزك الشخصي، واحصل على مفتاح الرمز: sk-xxxxx وقدّمه.

الخطوة 2: إرسال الطلبات إلى واجهة Qwen3.5-397B-A17B

اختر نقطة النهاية “Qwen3.5-397B-A17B” لإرسال طلب API واضبط جسم الطلب. تُستمد طريقة الطلب وجسم الطلب من مستند واجهة برمجة التطبيقات على موقعنا. يوفّر موقعنا أيضاً اختبار Apifox لراحتك. استبدل <YOUR_API_KEY> بمفتاح CometAPI الفعلي من حسابك. مكان الاستدعاء: صيغة الدردشة.

أدرج سؤالك أو طلبك في حقل المحتوى—هذا ما سيستجيب له النموذج. عالج استجابة API للحصول على الإجابة المُولَّدة.

الخطوة 3: الاسترجاع والتحقق من النتائج

عالج استجابة API للحصول على الإجابة المُولَّدة. بعد المعالجة، تستجيب واجهة برمجة التطبيقات بحالة المهمة وبيانات الإخراج.

الأسئلة الشائعة

Is Qwen3.5-397B-A17B available as open weights for local hosting and research?

Yes. The Qwen3.5-397B-A17B weights are released under Apache-2.0 on Hugging Face and ModelScope, and the project provides serving recipes for Transformers, vLLM, and SGLang.

What does the "A17B" suffix mean in Qwen3.5-397B-A17B?

A17B indicates the model's sparse routing design uses roughly 17 billion active parameters per token (active experts), while the global model capacity is ~397 billion parameters.

What is the native context window and can I extend it for very long documents?

The model ships with a native input sequence length of 262,144 tokens and includes documented methods to extend context to ~1,010,000 tokens via YaRN/RoPE scaling, depending on serving framework.

Which input modalities does Qwen3.5-397B-A17B support?

It is a unified vision-language model trained with early-fusion; supported inputs include text, images, and video tokens for multimodal reasoning and generation.

How does inference efficiency compare to a 17B dense model?

Per-token inference compute is similar to 17B dense-class models thanks to sparse MoE routing, but model artifacts and memory requirements are larger because full weights must be stored and distributed across devices.

الميزات لـ qwen3.5-397b-a17b

استكشف الميزات الرئيسية لـ qwen3.5-397b-a17b، المصممة لتعزيز الأداء وسهولة الاستخدام. اكتشف كيف يمكن لهذه القدرات أن تفيد مشاريعك وتحسن تجربة المستخدم.

التسعير لـ qwen3.5-397b-a17b

استكشف الأسعار التنافسية لـ qwen3.5-397b-a17b، المصمم ليناسب الميزانيات المختلفة واحتياجات الاستخدام المتنوعة. تضمن خططنا المرنة أن تدفع فقط مقابل ما تستخدمه، مما يجعل من السهل التوسع مع نمو متطلباتك. اكتشف كيف يمكن لـ qwen3.5-397b-a17b تحسين مشاريعك مع الحفاظ على التكاليف قابلة للإدارة.
سعر كوميت (USD / M Tokens)السعر الرسمي (USD / M Tokens)خصم
مدخل:$0.48/M
الإخراج:$2.88/M
مدخل:$0.6/M
الإخراج:$3.6/M
-20%

نموذج الكود وواجهة برمجة التطبيقات لـ qwen3.5-397b-a17b

احصل على أكواد نماذجية شاملة وموارد API لـ qwen3.5-397b-a17b لتبسيط عملية التكامل الخاصة بك. توفر وثائقنا التفصيلية إرشادات خطوة بخطوة، مما يساعدك على الاستفادة من الإمكانات الكاملة لـ qwen3.5-397b-a17b في مشاريعك.
Python
JavaScript
Curl
from openai import OpenAI
import os

# Get your CometAPI key from https://api.cometapi.com/console/token, and paste it here
COMETAPI_KEY = os.environ.get("COMETAPI_KEY") or "<YOUR_COMETAPI_KEY>"
BASE_URL = "https://api.cometapi.com/v1"

client = OpenAI(base_url=BASE_URL, api_key=COMETAPI_KEY)

completion = client.chat.completions.create(
    model="qwen3.5-397b-a17b",
    messages=[
        {"role": "system", "content": "You are a helpful assistant."},
        {"role": "user", "content": "Hello!"},
    ],
)

print(completion.choices[0].message.content)

المزيد من النماذج