Cara Menginstal Qwen2.5-Omni 7B Secara Lokal Menggunakan Hugging Face

CometAPI
AnnaApr 8, 2025
Cara Menginstal Qwen2.5-Omni 7B Secara Lokal Menggunakan Hugging Face

Qwen2.5-Omni 7B adalah model multimoda canggih yang mampu memproses dan menghasilkan teks, gambar, audio, dan video. Dikembangkan dengan teknik mutakhir, model ini menawarkan kinerja tangguh di berbagai tolok ukur. Panduan ini memberikan petunjuk terperinci tentang cara menginstal Qwen2.5-Omni 7B secara lokal, memastikan Anda dapat memanfaatkan kemampuannya secara efektif.

Qwen2.5-Omni 7B

Apa itu Qwen2.5-Omni 7B?

Qwen2.5-Omni 7B adalah model multimoda ujung ke ujung yang dirancang untuk memahami berbagai modalitas, termasuk teks, gambar, audio, dan video, sekaligus menghasilkan respons teks dan ucapan alami secara streaming. Model ini menggunakan arsitektur inovatif seperti kerangka Thinker-Talker, yang memungkinkan pembuatan teks dan ucapan secara bersamaan tanpa interferensi antarmodalitas. Model ini menggunakan pemrosesan per blok untuk input streaming dan memperkenalkan Time-aligned Multimodal RoPE (TMRoPE) untuk input audio dan video yang disinkronkan.

Bagaimana cara mengakses Qwen2.5-Omni 7B?

Untuk mengakses Qwen2.5-Omni 7B, kunjungi repositori resminya di platform seperti Hugging Face atau GitHub. Pastikan Anda memiliki izin yang diperlukan dan sistem Anda memenuhi persyaratan model.

Apa Persyaratan Sistem?

Sebelum memasang Qwen2.5-Omni 7B, pastikan sistem Anda memenuhi persyaratan berikut:

  • Sistem operasi: Sistem berbasis Linux (Ubuntu 20.04 atau lebih baru) direkomendasikan.
  • Perangkat keras:
  • CPU: Prosesor multi-inti dengan setidaknya 16 inti.
  • RAM: Minimal 64 GB.
  • GPU: GPU NVIDIA dengan setidaknya 24 GB VRAM (misalnya, RTX 3090 atau A100) untuk pemrosesan yang efisien.
  • Storage: Setidaknya 100 GB ruang disk kosong.

Pastikan driver GPU Anda mutakhir dan kompatibel dengan CUDA 11.6 atau yang lebih baru.

Bagaimana cara menginstal Qwen2.5-Omni 7B secara lokal?

Ikuti langkah-langkah berikut untuk menginstal Qwen2.5-Omni 7B di komputer lokal Anda:

1. Siapkan Lingkungan Virtual

Membuat lingkungan virtual membantu mengelola ketergantungan dan menghindari konflik:

# Install virtualenv if not already installed

pip install virtualenv

# Create a virtual environment named 'qwen_env'

virtualenv qwen_env

# Activate the virtual environment

source qwen_env/bin/activate

2. Instal Ketergantungan yang Diperlukan

Instal pustaka dan kerangka kerja yang diperlukan:

# Upgrade pip

pip install --upgrade pip

# Install PyTorch with CUDA support

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116

# Install additional dependencies

pip install transformers datasets numpy scipy

3. Unduh Model Qwen2.5-Omni 7B

Akses model dari repositori resminya:

# Install Git LFS if not already installed

sudo apt-get install git-lfs

# Clone the repository

git clone https://huggingface.co/Qwen/Qwen2.5-Omni-7B

# Navigate to the model directory

cd Qwen2.5-Omni-7B

4. Konfigurasikan Lingkungan

Siapkan variabel dan jalur lingkungan:

# Set the path to the model directory

export MODEL_DIR=$(pwd)

# Add the model directory to the Python path

export PYTHONPATH=$MODEL_DIR:$PYTHONPATH

5. Verifikasi Instalasi

Pastikan model terpasang dengan benar dengan menjalankan skrip pengujian:

# Run the test script

python test_qwen2.5_omni.py

Jika instalasi berhasil, Anda akan melihat keluaran yang menunjukkan kesiapan model.

Bagaimana Cara Menggunakan Qwen2.5-Omni 7B?

Setelah instalasi, Anda dapat menggunakan Qwen2.5-Omni 7B untuk berbagai tugas multimodal:

1. Muat Model

Dalam skrip Python atau sesi interaktif Anda, muat model:

from transformers import AutoModel, AutoTokenizer

# Load the tokenizer

tokenizer = AutoTokenizer.from_pretrained('Qwen/Qwen2.5-Omni-7B')

# Load the model

model = AutoModel.from_pretrained('Qwen/Qwen2.5-Omni-7B')

2. Siapkan Input

Format masukan Anda sesuai dengan persyaratan model. Misalnya, untuk memproses masukan teks dan gambar:

from PIL import Image

# Load and preprocess the image

image = Image.open('path_to_image.jpg')
image = preprocess_image(image)  # Define this function based on model specs

# Prepare text input

text = "Describe the content of the image."

# Tokenize inputs

inputs = tokenizer(text, return_tensors='pt')

# Add image to inputs

inputs = image

3. Hasilkan Output

Lewatkan masukan melalui model untuk mendapatkan keluaran:

# Generate outputs

outputs = model(**inputs)

# Process outputs as needed

4. Menafsirkan Hasil

Tafsirkan keluaran model berdasarkan aplikasi Anda. Misalnya, jika model menghasilkan deskripsi teks dari gambar, Anda dapat mengekstrak dan memanfaatkan deskripsi tersebut sebagaimana mestinya.

Lihat Juga Qwen 2.5 Coder 32B Instruksi API dan API QwQ-32B untuk rincian integrasi.

Untuk detail teknis lebih lanjut, lihat API Qwen2.5-Omni-7B

Kesimpulan

Qwen-2.5 Omni 7B merupakan kemajuan signifikan dalam AI dengan mengintegrasikan berbagai modalitas data, seperti teks, gambar, audio, dan video, untuk menghasilkan respons alami secara real-time. Penerapan model ini pada platform cloud NodeShift meningkatkan kemampuannya dengan menyediakan infrastruktur yang aman, terukur, dan hemat biaya. NodeShift menyederhanakan proses penerapan, sehingga memungkinkan pengembang untuk memproses alur kerja dan potensi penuh Qwen-2.5 Omni 7B secara efisien tanpa kerumitan pengaturan cloud tradisional.

Baca Selengkapnya

500+ Model dalam Satu API

Diskon hingga 20%