Hugging Face를 사용하여 Qwen2.5-Omni 7B를 로컬로 설치하는 방법

CometAPI
AnnaApr 8, 2025
Hugging Face를 사용하여 Qwen2.5-Omni 7B를 로컬로 설치하는 방법

퀀2.5-옴니 7B 텍스트, 이미지, 오디오, 비디오를 처리하고 생성할 수 있는 고급 멀티모달 모델입니다. 최첨단 기술로 개발되어 다양한 벤치마크에서 강력한 성능을 제공합니다. 이 가이드에서는 Qwen2.5-Omni 7B를 로컬에 설치하는 방법에 대한 자세한 지침을 제공하여 기능을 효과적으로 활용할 수 있도록 지원합니다.

퀀2.5-옴니 7B

Qwen2.5-Omni 7B란 무엇인가요?

Qwen2.5-Omni 7B는 텍스트, 이미지, 오디오, 비디오 등 다양한 모달리티를 인식하는 동시에 스트리밍 방식으로 텍스트와 자연스러운 음성 응답을 생성하도록 설계된 엔드 투 엔드 멀티모달 모델입니다. Thinker-Talker 프레임워크와 같은 혁신적인 아키텍처를 활용하여 모달리티 간 간섭 없이 텍스트와 음성을 동시에 생성할 수 있습니다. 이 모델은 스트리밍 입력에 블록 단위 처리를 적용하고, 동기화된 오디오 및 비디오 입력에 시간 정렬 멀티모달 RoPE(TMRoPE)를 도입합니다.

Qwen2.5-Omni 7B에 접속하는 방법?

Qwen2.5-Omni 7B에 액세스하려면 Hugging Face 또는 GitHub과 같은 플랫폼의 공식 저장소를 방문하세요. 필요한 권한이 있는지, 그리고 시스템이 모델 요구 사항을 충족하는지 확인하세요.

시스템 요구 사항은 무엇입니까?

Qwen2.5-Omni 7B를 설치하기 전에 시스템이 다음 요구 사항을 충족하는지 확인하세요.

  • 운영체제: Linux 기반 시스템(Ubuntu 20.04 이상)을 권장합니다.
  • 하드웨어:
  • CPU: 최소 16개 코어를 갖춘 멀티코어 프로세서.
  • : 최소 64GB.
  • GPU: 효율적인 처리를 위해 최소 24GB VRAM이 장착된 NVIDIA GPU(예: RTX 3090 또는 A100).
  • 스토리지: 최소 100GB의 여유 디스크 공간.

GPU 드라이버가 최신 상태이고 CUDA 11.6 이상과 호환되는지 확인하세요.

Qwen2.5-Omni 7B를 로컬에 설치하는 방법?

로컬 컴퓨터에 Qwen2.5-Omni 7B를 설치하려면 다음 단계를 따르세요.

1. 가상 환경 설정

가상 환경을 만들면 종속성을 관리하고 충돌을 방지하는 데 도움이 됩니다.

# Install virtualenv if not already installed

pip install virtualenv

# Create a virtual environment named 'qwen_env'

virtualenv qwen_env

# Activate the virtual environment

source qwen_env/bin/activate

2. 필수 종속성 설치

필요한 라이브러리와 프레임워크를 설치하세요:

# Upgrade pip

pip install --upgrade pip

# Install PyTorch with CUDA support

pip install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu116

# Install additional dependencies

pip install transformers datasets numpy scipy

3. Qwen2.5-Omni 7B 모델 다운로드

공식 저장소에서 모델에 액세스하세요.

# Install Git LFS if not already installed

sudo apt-get install git-lfs

# Clone the repository

git clone https://huggingface.co/Qwen/Qwen2.5-Omni-7B

# Navigate to the model directory

cd Qwen2.5-Omni-7B

4. 환경 구성

환경 변수와 경로를 설정합니다.

# Set the path to the model directory

export MODEL_DIR=$(pwd)

# Add the model directory to the Python path

export PYTHONPATH=$MODEL_DIR:$PYTHONPATH

5. 설치 확인

테스트 스크립트를 실행하여 모델이 올바르게 설치되었는지 확인하세요.

# Run the test script

python test_qwen2.5_omni.py

설치가 성공적으로 완료되면 모델이 준비되었음을 나타내는 출력이 표시됩니다.

Qwen2.5-Omni 7B를 어떻게 사용하나요?

설치 후 Qwen2.5-Omni 7B를 다양한 멀티모달 작업에 활용할 수 있습니다.

1. 모델 로드

Python 스크립트나 대화형 세션에서 모델을 로드합니다.

from transformers import AutoModel, AutoTokenizer

# Load the tokenizer

tokenizer = AutoTokenizer.from_pretrained('Qwen/Qwen2.5-Omni-7B')

# Load the model

model = AutoModel.from_pretrained('Qwen/Qwen2.5-Omni-7B')

2. 입력 준비

모델의 요구 사항에 따라 입력 형식을 지정하세요. 예를 들어 텍스트와 이미지 입력을 처리하려면 다음과 같이 하세요.

from PIL import Image

# Load and preprocess the image

image = Image.open('path_to_image.jpg')
image = preprocess_image(image)  # Define this function based on model specs

# Prepare text input

text = "Describe the content of the image."

# Tokenize inputs

inputs = tokenizer(text, return_tensors='pt')

# Add image to inputs

inputs = image

3. 출력 생성

입력을 모델에 전달하여 출력을 얻습니다.

# Generate outputs

outputs = model(**inputs)

# Process outputs as needed

4. 결과 해석

애플리케이션에 따라 모델의 출력을 해석하세요. 예를 들어, 모델이 이미지에 대한 텍스트 설명을 생성하는 경우, 해당 설명을 추출하여 활용할 수 있습니다.

도 참조 Qwen 2.5 Coder 32B API 지시QwQ-32B API 통합 세부 정보를 확인하세요.

더 자세한 기술적인 내용은 다음을 참조하세요. Qwen2.5-옴니-7B API

결론

Qwen-2.5 Omni 7B는 텍스트, 이미지, 오디오, 비디오 등 다양한 데이터 모달리티를 손쉽게 통합하여 자연스러운 실시간 응답을 생성함으로써 AI 분야에서 획기적인 발전을 이루었습니다. 이 모델을 NodeShift 클라우드 플랫폼에 구축하면 안전하고 확장 가능하며 비용 효율적인 인프라를 제공하여 AI의 역량을 더욱 강화할 수 있습니다. NodeShift는 구축 프로세스를 간소화하여 개발자가 기존 클라우드 환경의 복잡성 없이 Qwen-2.5 Omni 7B의 전체 워크플로와 잠재력을 효율적으로 활용할 수 있도록 지원합니다.

더 보기

하나의 API로 500개 이상의 모델

최대 20% 할인