كيفية تثبيت Qwen2.5-Omni 7B محليًا باستخدام Hugging Face

CometAPI
AnnaApr 8, 2025
كيفية تثبيت Qwen2.5-Omni 7B محليًا باستخدام Hugging Face

Qwen2.5-Omni 7B هو نموذج متعدد الوسائط متطور قادر على معالجة وتوليد النصوص والصور والصوت والفيديو. طُوّر باستخدام تقنيات متطورة، ويوفر أداءً قويًا في مختلف المعايير. يقدم هذا الدليل تعليمات مفصلة حول تثبيت Qwen2.5-Omni 7B محليًا، مما يضمن لك الاستفادة القصوى من إمكانياته.

Qwen2.5-Omni 7B

ما هو Qwen2.5-Omni 7B؟

Qwen2.5-Omni 7B هو نموذج متعدد الوسائط متكامل، مصمم لإدراك وسائط متنوعة، بما في ذلك النصوص والصور والصوت والفيديو، مع توليد استجابات نصية وكلامية طبيعية في آن واحد بطريقة متدفقة. يستخدم هذا النموذج هياكل مبتكرة، مثل إطار عمل Thinker-Talker، مما يتيح توليد النصوص والكلام بشكل متزامن دون تداخل بين الوسائط. يستخدم النموذج معالجةً لكل كتلة على حدة لمدخلات البث، ويقدم تقنية TMRoPE متعددة الوسائط المتوافقة زمنيًا لمدخلات الصوت والفيديو المتزامنة.

كيفية الوصول إلى Qwen2.5-Omni 7B؟

للوصول إلى Qwen2.5-Omni 7B، تفضل بزيارة مستودعه الرسمي على منصات مثل Hugging Face أو GitHub. تأكد من حصولك على الأذونات اللازمة وأن نظامك يلبي متطلبات النموذج.

ماهي متطلبات النظام؟

قبل تثبيت Qwen2.5-Omni 7B، تأكد من أن نظامك يلبي المتطلبات التالية:

  • نظام التشغيل:يوصى باستخدام الأنظمة المستندة إلى Linux (Ubuntu 20.04 أو أحدث).
  • أجهزة التبخير:
  • وحدة المعالجة المركزية‏::معالج متعدد النواة يحتوي على 16 نواة على الأقل.
  • رامات: الحد الأدنى 64 جيجابايت.
  • وحدة معالجة الرسوميات‏:‏:وحدة معالجة الرسومات NVIDIA مع ذاكرة VRAM بسعة 24 جيجابايت على الأقل (على سبيل المثال، RTX 3090 أو A100) للمعالجة الفعالة.
  • الخزائن :يجب أن يكون هناك 100 جيجابايت على الأقل من مساحة القرص الحرة.

تأكد من أن برامج تشغيل وحدة معالجة الرسومات لديك محدثة ومتوافقة مع CUDA 11.6 أو الإصدار الأحدث.

كيفية تثبيت Qwen2.5-Omni 7B محليًا؟

اتبع الخطوات التالية لتثبيت Qwen2.5-Omni 7B على جهازك المحلي:

1. إعداد بيئة افتراضية

يساعد إنشاء بيئة افتراضية على إدارة التبعيات وتجنب الصراعات:

# Install virtualenv if not already installed

pip install virtualenv

# Create a virtual environment named 'qwen_env'

virtualenv qwen_env

# Activate the virtual environment

source qwen_env/bin/activate

2. قم بتثبيت التبعيات المطلوبة

قم بتثبيت المكتبات والأطر اللازمة:

# Upgrade pip

pip install --upgrade pip

# Install PyTorch with CUDA support

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116

# Install additional dependencies

pip install transformers datasets numpy scipy

3. قم بتنزيل نموذج Qwen2.5-Omni 7B

يمكنك الوصول إلى النموذج من مستودعه الرسمي:

# Install Git LFS if not already installed

sudo apt-get install git-lfs

# Clone the repository

git clone https://huggingface.co/Qwen/Qwen2.5-Omni-7B

# Navigate to the model directory

cd Qwen2.5-Omni-7B

4. تكوين البيئة

إعداد متغيرات البيئة والمسارات:

# Set the path to the model directory

export MODEL_DIR=$(pwd)

# Add the model directory to the Python path

export PYTHONPATH=$MODEL_DIR:$PYTHONPATH

5. تحقق من التثبيت

تأكد من تثبيت النموذج بشكل صحيح عن طريق تشغيل البرنامج النصي للاختبار:

# Run the test script

python test_qwen2.5_omni.py

إذا كان التثبيت ناجحًا، فيجب أن ترى إخراجًا يشير إلى جاهزية النموذج.

كيفية استخدام Qwen2.5-Omni 7B؟

بعد التثبيت، يمكنك استخدام Qwen2.5-Omni 7B للعديد من المهام المتعددة الوسائط:

1. قم بتحميل النموذج

في البرنامج النصي Python أو الجلسة التفاعلية الخاصة بك، قم بتحميل النموذج:

from transformers import AutoModel, AutoTokenizer

# Load the tokenizer

tokenizer = AutoTokenizer.from_pretrained('Qwen/Qwen2.5-Omni-7B')

# Load the model

model = AutoModel.from_pretrained('Qwen/Qwen2.5-Omni-7B')

2. إعداد المدخلات

نسّق مُدخلاتك وفقًا لمتطلبات النموذج. على سبيل المثال، لمعالجة مُدخلات النصوص والصور:

from PIL import Image

# Load and preprocess the image

image = Image.open('path_to_image.jpg')
image = preprocess_image(image)  # Define this function based on model specs

# Prepare text input

text = "Describe the content of the image."

# Tokenize inputs

inputs = tokenizer(text, return_tensors='pt')

# Add image to inputs

inputs = image

3. توليد المخرجات

مرر المدخلات عبر النموذج للحصول على المخرجات:

# Generate outputs

outputs = model(**inputs)

# Process outputs as needed

4. تفسير النتائج

فسّر مخرجات النموذج بناءً على تطبيقك. على سبيل المثال، إذا كان النموذج يُنشئ أوصافًا نصية للصور، يمكنك استخراج هذه الأوصاف واستخدامها وفقًا لذلك.

انظر أيضا واجهة برمجة تطبيقات التعليمات Qwen 2.5 Coder 32B و واجهة برمجة التطبيقات QwQ-32B للحصول على تفاصيل التكامل.

لمزيد من التفاصيل الفنية، راجع واجهة برمجة تطبيقات Qwen2.5-Omni-7B

الخاتمة

يُمثل Qwen-2.5 Omni 7B تقدمًا ملحوظًا في مجال الذكاء الاصطناعي، إذ يُدمج بسهولة ويسر وسائط بيانات متعددة، مثل النصوص والصور والصوت والفيديو، لتوليد استجابات فورية وطبيعية. يُعزز نشر هذا النموذج على منصة NodeShift السحابية قدراته من خلال توفير بنية تحتية آمنة وقابلة للتطوير وفعالة من حيث التكلفة. تُبسط NodeShift عملية النشر، مما يسمح للمطورين بمعالجة سير عمل Qwen-2.5 Omni 7B وإمكاناته بكفاءة، دون تعقيدات إعدادات السحابة التقليدية.

اقرأ المزيد

500+ نموذج في واجهة برمجة تطبيقات واحدة

خصم يصل إلى 20%