Cara Memasang Qwen2.5-Omni 7B Secara Tempatan Menggunakan Muka Memeluk

CometAPI
AnnaApr 8, 2025
Cara Memasang Qwen2.5-Omni 7B Secara Tempatan Menggunakan Muka Memeluk

Qwen2.5-Omni 7B ialah model multimodal termaju yang mampu memproses dan menjana teks, imej, audio dan video. Dibangunkan dengan teknik canggih, ia menawarkan prestasi yang mantap merentasi pelbagai penanda aras. Panduan ini menyediakan arahan terperinci tentang memasang Qwen2.5-Omni 7B secara tempatan, memastikan anda boleh memanfaatkan keupayaannya dengan berkesan.

Qwen2.5-Omni 7B

Apakah Qwen2.5-Omni 7B?

Qwen2.5-Omni 7B ialah model multimodal hujung ke hujung yang direka untuk melihat kepelbagaian modaliti, termasuk teks, imej, audio dan video, sambil menjana teks dan tindak balas pertuturan semula jadi dalam cara penstriman. Ia menggunakan seni bina inovatif seperti rangka kerja Thinker-Talker, membolehkan teks serentak dan penjanaan pertuturan tanpa gangguan antara modaliti. Model ini menggunakan pemprosesan blok-bijak untuk input penstriman dan memperkenalkan RoPE Multimodal Sejajar Masa (TMRoPE) untuk input audio dan video yang disegerakkan.

Bagaimana untuk Mengakses Qwen2.5-Omni 7B?

Untuk mengakses Qwen2.5-Omni 7B, lawati repositori rasminya pada platform seperti Hugging Face atau GitHub. Pastikan anda mempunyai kebenaran yang diperlukan dan sistem anda memenuhi keperluan model.

Apakah Keperluan Sistem?

Sebelum memasang Qwen2.5-Omni 7B, pastikan sistem anda memenuhi keperluan berikut:

  • Sistem Operasi: Sistem berasaskan Linux (Ubuntu 20.04 atau lebih baru) disyorkan.
  • perkakasan:
  • CPU: Pemproses berbilang teras dengan sekurang-kurangnya 16 teras.
  • RAM: Minimum 64 GB.
  • GPU: GPU NVIDIA dengan sekurang-kurangnya 24 GB VRAM (cth, RTX 3090 atau A100) untuk pemprosesan yang cekap.
  • Pada Suhu Ambien: Sekurang-kurangnya 100 GB ruang cakera kosong.

Pastikan pemacu GPU anda terkini dan serasi dengan CUDA 11.6 atau lebih baru.

Bagaimana untuk Memasang Qwen2.5-Omni 7B Secara Tempatan?

Ikuti langkah ini untuk memasang Qwen2.5-Omni 7B pada mesin tempatan anda:

1. Sediakan Persekitaran Maya

Mencipta persekitaran maya membantu mengurus kebergantungan dan mengelakkan konflik:

# Install virtualenv if not already installed

pip install virtualenv

# Create a virtual environment named 'qwen_env'

virtualenv qwen_env

# Activate the virtual environment

source qwen_env/bin/activate

2. Pasang Ketergantungan yang Diperlukan

Pasang perpustakaan dan rangka kerja yang diperlukan:

# Upgrade pip

pip install --upgrade pip

# Install PyTorch with CUDA support

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116

# Install additional dependencies

pip install transformers datasets numpy scipy

3. Muat turun Model Qwen2.5-Omni 7B

Akses model dari repositori rasminya:

# Install Git LFS if not already installed

sudo apt-get install git-lfs

# Clone the repository

git clone https://huggingface.co/Qwen/Qwen2.5-Omni-7B

# Navigate to the model directory

cd Qwen2.5-Omni-7B

4. Konfigurasi Persekitaran

Sediakan pembolehubah dan laluan persekitaran:

# Set the path to the model directory

export MODEL_DIR=$(pwd)

# Add the model directory to the Python path

export PYTHONPATH=$MODEL_DIR:$PYTHONPATH

5. Sahkan Pemasangan

Pastikan model dipasang dengan betul dengan menjalankan skrip ujian:

# Run the test script

python test_qwen2.5_omni.py

Jika pemasangan berjaya, anda akan melihat output yang menunjukkan kesediaan model.

Bagaimana untuk Menggunakan Qwen2.5-Omni 7B?

Selepas pemasangan, anda boleh menggunakan Qwen2.5-Omni 7B untuk pelbagai tugas multimodal:

1. Muatkan Model

Dalam skrip Python atau sesi interaktif anda, muatkan model:

from transformers import AutoModel, AutoTokenizer

# Load the tokenizer

tokenizer = AutoTokenizer.from_pretrained('Qwen/Qwen2.5-Omni-7B')

# Load the model

model = AutoModel.from_pretrained('Qwen/Qwen2.5-Omni-7B')

2. Sediakan Input

Formatkan input anda mengikut keperluan model. Contohnya, untuk memproses input teks dan imej:

from PIL import Image

# Load and preprocess the image

image = Image.open('path_to_image.jpg')
image = preprocess_image(image)  # Define this function based on model specs

# Prepare text input

text = "Describe the content of the image."

# Tokenize inputs

inputs = tokenizer(text, return_tensors='pt')

# Add image to inputs

inputs = image

3. Menjana Output

Lulus input melalui model untuk mendapatkan output:

# Generate outputs

outputs = model(**inputs)

# Process outputs as needed

4. Mentafsir Keputusan

Tafsirkan output model berdasarkan aplikasi anda. Sebagai contoh, jika model menjana perihalan teks imej, anda boleh mengekstrak dan menggunakan penerangan ini dengan sewajarnya.

See Also Qwen 2.5 Coder 32B Instruct API and API QwQ-32B untuk butiran integrasi.

Untuk butiran lanjut teknikal, lihat API Qwen2.5-Omni-7B

Kesimpulan

Qwen-2.5 Omni 7B mewakili kemajuan yang ketara dalam AI dengan menyepadukan pelbagai modaliti data, seperti teks, imej, audio dan video, untuk menjana respons semula jadi masa nyata. Menggunakan model ini pada platform awan NodeShift meningkatkan keupayaannya dengan menyediakan infrastruktur yang selamat, berskala dan menjimatkan kos. NodeShift memudahkan proses penggunaan, membolehkan pembangun memproses aliran kerja penuh dan potensi Qwen-2.5 Omni 7B dengan cekap tanpa kerumitan persediaan awan tradisional.

Baca Lagi

500+ Model dalam Satu API

Sehingga 20% Diskaun