ハギングフェイスを使用してQwen2.5-Omni 7Bをローカルにインストールする方法

CometAPI
AnnaApr 8, 2025
ハギングフェイスを使用してQwen2.5-Omni 7Bをローカルにインストールする方法

Qwen2.5-オムニ 7B テキスト、画像、音声、動画を処理・生成できる高度なマルチモーダルモデルです。最先端の技術を用いて開発され、様々なベンチマークにおいて堅牢なパフォーマンスを発揮します。このガイドでは、Qwen2.5-Omni 7Bをローカルにインストールするための詳細な手順を説明し、その機能を効果的に活用できるようにします。

Qwen2.5-オムニ 7B

Qwen2.5-Omni 7Bとは何ですか?

Qwen2.5-Omni 7Bは、テキスト、画像、音声、動画など多様なモダリティを認識し、同時にストリーミング方式でテキストと自然音声の応答を生成するように設計された、エンドツーエンドのマルチモーダルモデルです。Thinker-Talkerフレームワークなどの革新的なアーキテクチャを活用することで、モダリティ間の干渉なしにテキストと音声の同時生成を可能にします。ストリーミング入力にはブロック単位の処理を採用し、同期された音声と動画の入力にはTime-aligned Multimodal RoPE(TMRoPE)を導入しています。

Qwen2.5-Omni 7Bにアクセスするにはどうすればいいですか?

Qwen2.5-Omni 7Bにアクセスするには、Hugging FaceやGitHubなどのプラットフォームにある公式リポジトリにアクセスしてください。必要な権限があり、システムがモデルの要件を満たしていることを確認してください。

システム要件は何ですか?

Qwen2.5-Omni 7B をインストールする前に、システムが次の要件を満たしていることを確認してください。

  • オペレーティングシステム: Linux ベースのシステム (Ubuntu 20.04 以降) が推奨されます。
  • Hardware:
  • CPU: 少なくとも 16 個のコアを持つマルチコア プロセッサ。
  • RAM: 最低64GB。
  • GPU: 効率的な処理のために、少なくとも 24 GB の VRAM を搭載した NVIDIA GPU (例: RTX 3090 または A100)。
  • Storage: 少なくとも 100 GB の空きディスク容量。

GPU ドライバーが最新であり、CUDA 11.6 以降と互換性があることを確認してください。

Qwen2.5-Omni 7B をローカルにインストールする方法は?

Qwen2.5-Omni 7B をローカル マシンにインストールするには、次の手順に従います。

1. 仮想環境をセットアップする

仮想環境を作成すると、依存関係を管理し、競合を回避するのに役立ちます。

# Install virtualenv if not already installed

pip install virtualenv

# Create a virtual environment named 'qwen_env'

virtualenv qwen_env

# Activate the virtual environment

source qwen_env/bin/activate

2. 必要な依存関係をインストールする

必要なライブラリとフレームワークをインストールします。

# Upgrade pip

pip install --upgrade pip

# Install PyTorch with CUDA support

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116

# Install additional dependencies

pip install transformers datasets numpy scipy

3. Qwen2.5-Omni 7Bモデルをダウンロードする

公式リポジトリからモデルにアクセスします。

# Install Git LFS if not already installed

sudo apt-get install git-lfs

# Clone the repository

git clone https://huggingface.co/Qwen/Qwen2.5-Omni-7B

# Navigate to the model directory

cd Qwen2.5-Omni-7B

4. 環境を構成する

環境変数とパスを設定します。

# Set the path to the model directory

export MODEL_DIR=$(pwd)

# Add the model directory to the Python path

export PYTHONPATH=$MODEL_DIR:$PYTHONPATH

5. インストールを確認する

テスト スクリプトを実行して、モデルが正しくインストールされていることを確認します。

# Run the test script

python test_qwen2.5_omni.py

インストールが成功すると、モデルの準備状況を示す出力が表示されます。

Qwen2.5-Omni 7Bの使い方

インストール後、Qwen2.5-Omni 7B をさまざまなマルチモーダル タスクに活用できます。

1. モデルをロードする

Python スクリプトまたはインタラクティブ セッションで、モデルを読み込みます。

from transformers import AutoModel, AutoTokenizer

# Load the tokenizer

tokenizer = AutoTokenizer.from_pretrained('Qwen/Qwen2.5-Omni-7B')

# Load the model

model = AutoModel.from_pretrained('Qwen/Qwen2.5-Omni-7B')

2. 入力の準備

モデルの要件に従って入力をフォーマットします。例えば、テキストと画像の入力を処理するには次のようにします。

from PIL import Image

# Load and preprocess the image

image = Image.open('path_to_image.jpg')
image = preprocess_image(image)  # Define this function based on model specs

# Prepare text input

text = "Describe the content of the image."

# Tokenize inputs

inputs = tokenizer(text, return_tensors='pt')

# Add image to inputs

inputs = image

3. 出力を生成する

入力をモデルに渡して出力を取得します。

# Generate outputs

outputs = model(**inputs)

# Process outputs as needed

4. 結果の解釈

アプリケーションに応じてモデルの出力を解釈します。例えば、モデルが画像のテキスト説明を生成する場合、これらの説明を適切に抽出して活用できます。

も参照してください Qwen 2.5 コーダ 32B 命令 API および QwQ-32B API 統合の詳細については、こちらをご覧ください。

技術的な詳細については、 Qwen2.5-オムニ-7B API

結論

Qwen-2.5 Omni 7Bは、テキスト、画像、音声、動画といった複数のデータモダリティを容易に統合し、リアルタイムで自然なレスポンスを生成することで、AIにおける大きな進歩を体現しています。このモデルをNodeShiftのクラウドプラットフォームに導入することで、安全で拡張性が高く、費用対効果の高いインフラストラクチャが提供され、その機能が強化されます。NodeShiftは導入プロセスを簡素化し、開発者は従来のクラウド設定の複雑さに煩わされることなく、Qwen-2.5 Omni 7Bのワークフローと潜在能力を効率的に活用できます。

もっと読む

1つのAPIで500以上のモデル

最大20%オフ