본문 바로가기
dev-setup

[vllm] 설치하기 (Linux 환경을 위해, WSL 2 환경에서 설치)

by doraemin_dev 2025. 2. 24.

vllm을 설치하고 실행해보자.

vllm은 기본적으로 CUDA 11.8 이상이 필요합니다.AMD GPU는 현재 공식적으로 지원되지 않으므로 NVIDIA GPU 사용을 권장.

 

https://github.com/vllm-project/vllm/blob/main/vllm/entrypoints/llm.py

 

vllm/vllm/entrypoints/llm.py at main · vllm-project/vllm

A high-throughput and memory-efficient inference and serving engine for LLMs - vllm-project/vllm

github.com

 

1. Python 3.10 설치 (Windows)

python --version # Python 3.10.x가 출력되어야 함

 

2. NVIDIA Drivers 설치

https://www.nvidia.com/en-us/drivers/

 

Download The Latest Official NVIDIA Drivers

Download the latest official NVIDIA drivers to enhance your PC gaming experience and run apps faster.

www.nvidia.com

자신의 컴퓨터 사양에 맞게 설치하면 된다.

 

2. CUDA Toolkit 설치

https://developer.nvidia.com/cuda-downloads

 

CUDA Toolkit 12.1 Downloads

Get the latest feature updates to NVIDIA's proprietary compute stack.

developer.nvidia.com

 

 

 

 

3. WSL 업데이트 (최신 버전 설치)

Windows 환경에서 vllm 설치가 지속적으로 실패할 경우, WSL 2 (Linux 환경) 사용이 더 안정적입니다.
WSL 2는 NVIDIA CUDA를 네이티브처럼 사용할 수 있도록 지원

 

PowerShell 관리자 모드로 실행

 

최신 버전의 WSL 설치:

wsl --update
 
업데이트 완료 후 WSL 서비스를 재시작:
wsl --shutdown

 

WSL 버전 확인:

wsl --version

 

기존 레거시 Ubuntu 제거 (선택 사항)

레거시 버전을 제거하려면:

wsl --unregister Ubuntu

 

 

새로 Ubuntu 22.04 설치

wsl --install -d Ubuntu-22.04

다음부터는 명령어 'wsl'만 입력하면 곧바로 접속 된다.

WSL 2 (Ubuntu 22.04) 설치 성공! 🚀

이제 vllm을 설치할 준비가 완료되었습니다.
아래 순서대로 명령어를 입력해 주세요.


0. 가상환경

# 홈 디렉토리에서 생성 # 홈 디렉토리에 설치하면 어떤 폴더에서도 접근 가능하여 관리가 쉽습니다.
python3 -m venv vllm-env

# 가상환경 활성화
source vllm-env/bin/activate

# 활성화 후 프롬프트:
(vllm-env) doraemin@LAPTOP-64L3B74O:~$

 

python3 -m venv 명령어 실패 에러 발생 시 아래의 '접은글' 참조

더보기

 

python3-venv 설치:

sudo apt install python3.10-venv -y

 

💾 1. 시스템 업데이트

먼저 패키지 목록을 업데이트합니다:

sudo apt update
sudo apt upgrade -y
pip install --upgrade pip setuptools wheel

🐍 2. Python 및 Pip 설치

  1. Python 3 및 Pip 설치:
sudo apt install python3 python3-pip -y
  1. Python 버전 확인:
python3 --version

Python 3.10 이상이 표시되면 됩니다.

 


🔧 3. NVIDIA CUDA 및 PyTorch 설치

  1. NVIDIA CUDA 드라이버가 작동 중인지 확인:
nvidia-smi
  • 정상적으로 출력되면 GPU가 WSL 2에서 사용할 준비가 된 것입니다.
  1. PyTorch 설치 (CUDA 지원 버전)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
  • CUDA 11.8을 사용하는 버전이 더 안정적입니다.

 

🧪torch 테스트 (작동 확인)

Python을 열고 다음 코드를 실행하세요:

import torch

print("CUDA 사용 가능 여부:", torch.cuda.is_available()) # True가 나오면 CUDA 사용 가능
print("GPU 이름:", torch.cuda.get_device_name(0)) # NVIDIA GPU 이름 출력

📦 4. vllm 설치

이제 드디어 vllm을 설치합니다:

pip install vllm[cuda]

또는 CUDA 버전을 명시하려면:

pip install vllm[cuda11.8]

설치 완료 시 더 이상 AMD ROCm 관련 오류가 발생하지 않습니다. 🎉

 

드디어 된다 ㅠㅠ

🧪 vllm 테스트 (작동 확인)

Python을 열고 다음 코드를 실행하세요:

from vllm import LLM

llm = LLM(model="Qwen/Qwen2.5-VL-3B-Instruct")
print("vllm이 성공적으로 로드되었습니다!")

💎 결론

  • 이제 WSL 2 환경에서 vllm을 사용할 준비가 모두 완료되었습니다.
  • 더 이상 AMD ROCm 관련 오류가 발생하지 않으므로, NVIDIA RTX 4090의 CUDA 가속을 활용할 수 있습니다. 🚀

 

이제 내 코드를 실행하려니, 버전이 안 맞는 에러가 발생했다.

TensorFlow가 GPU를 사용하려고 시도했으나, CUDA 또는 cuDNN 라이브러리 초기화에 실패했습니다.

tensorflow.python.framework.errors_impl.FailedPreconditionError: Graph execution error와 DNN library initialization failed

 

https://doraemin.tistory.com/145

 

[WSL] CUDA Version Downgrade

wsl을 통해 코드를 실행하려니, 버전이 안 맞는 에러가 발생했다.TensorFlow가 GPU를 사용하려고 시도했으나, CUDA 또는 cuDNN 라이브러리 초기화에 실패했습니다.tensorflow.python.framework.errors_impl.FailedPrec

doraemin.tistory.com