当前位置: 首页 > news >正文

ubuntu 安装 vllm

在 Ubuntu 系统上使用 uv 安装 vllm 可以分为几个步骤。uv 是一个极其快速的 Python 包安装器和解析器,由 Astral 公司(Ruff 的创建者)开发,非常适合用来安装像 vllm 这样依赖复杂的项目。

以下是详细步骤:

步骤 1:更新系统包索引(推荐)

首先,确保你的 Ubuntu 系统是最新的。

sudo apt update && sudo apt upgrade -y

步骤 2:安装 uv

你可以使用官方的安装脚本来安装 uv,这是最方便的方法。

curl -LsSf https://astral.sh/uv/install.sh | sh

安装完成后,按照提示将 uv 添加到你的 PATH 中。通常需要重新启动终端或执行以下命令:

source ~/.bashrc
# 或者如果你使用 zsh
source ~/.zshrc

验证 uv 是否安装成功:

uv --version

步骤 3:使用 uv 创建虚拟环境并安装 vllm

uv 的核心功能是管理环境和安装包。我们将使用它创建一个新的虚拟环境并在其中安装 vllm

  1. 创建项目目录并进入(可选,但推荐)
    这有助于保持环境隔离。

    mkdir vllm-project && cd vllm-project
    
  2. 初始化虚拟环境并安装 vllm
    使用 uv init 命令可以一步完成创建虚拟环境、生成 pyproject.toml 并安装包。

    uv init . --python 3.11
    uv add vllm
    
    • uv init . 在当前目录初始化一个项目。
    • --python 3.11 指定 Python 版本(vllm 强烈推荐使用 Python 3.9-3.11)。
    • uv add vllmvllm 包添加到依赖项并安装。

或者,使用更传统的流程:

# 1. 创建虚拟环境,命名为 .venv
uv venv .venv
# 2. 激活虚拟环境
source .venv/bin/activate
# 3. 使用 uv pip 安装 vllm (速度远超传统 pip)
uv pip install vllm

步骤 4:安装 vllm 的可选依赖(CUDA)

vllm 是一个 GPU 密集型库,需要 CUDA。uv 在安装 vllm 时会自动处理其 Python 依赖(如 torch),但系统级的 CUDA 驱动和工具包需要你自己安装。

  1. 检查 NVIDIA 驱动是否已安装

    nvidia-smi
    

    如果这个命令输出了 GPU 信息,说明驱动已安装。如果没有,你需要先安装 NVIDIA 驱动。

  2. 安装 CUDA Toolkit(如果需要)
    vllm 通常与 CUDA 12.1 兼容性最好。推荐使用 apt 安装:

    # 首先添加 NVIDIA 包仓库
    distribution=$(. /etc/os-release;echo $ID$VERSION_ID | sed -e 's/\.//g')
    wget https://developer.download.nvidia.com/compute/cuda/repos/$distribution/x86_64/cuda-keyring_1.1-1_all.deb
    sudo dpkg -i cuda-keyring_1.0-1_all.deb
    sudo apt update# 安装 CUDA Toolkit 12.1
    sudo apt install -y cuda-toolkit-12-1
    

    安装完成后,可能需要设置环境变量(通常添加到 ~/.bashrc 中):

    echo 'export PATH=/usr/local/cuda-12.1/bin:$PATH' >> ~/.bashrc
    echo 'export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH' >> ~/.bashrc
    source ~/.bashrc
    

步骤 5:验证安装

创建一个简单的 Python 脚本或直接在激活的虚拟环境中启动 Python 解释器来测试 vllm 是否安装成功。

source .venv/bin/activate # 如果尚未激活
python -c "import vllm; print('vllm 安装成功!'); print(f'版本: {vllm.__version__}')"

如果一切顺利,你将看到成功的导入信息和版本号。


常见问题与解决 (Troubleshooting)

  1. Could not find version that satisfies the requirement vllm:

    • 确保你的网络连接正常,uv 可以访问 PyPI。
  2. CUDA version is insufficient 或其他 CUDA 相关错误:

    • 运行 nvidia-sminvcc --version 检查你的驱动和 CUDA 版本。确保你安装的是 CUDA 12.1 或更高版本。
    • 有时 vllm 需要特定版本的 torch。可以尝试强制重新安装与 CUDA 匹配的 PyTorch:
      uv pip install --force-reinstall torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
      
      然后再重新安装 vllmuv pip install vllm
  3. 性能问题或运行时错误:

    • 确保你是在虚拟环境中操作,并且没有多个版本的 torch 冲突。
    • 查阅 vllm 的官方文档:https://docs.vllm.ai

总结

使用 uv 在 Ubuntu 上安装 vllm 的流程可以简化为:

  1. curl -LsSf https://astral.sh/uv/install.sh | sh 安装 uv
  2. uv venv .venv && source .venv/bin/activate 创建并激活虚拟环境。
  3. uv pip install vllm 使用超快的 uv pip 安装 vllm
  4. 确保系统已正确安装 NVIDIA 驱动CUDA 12.1+ Toolkit

uv 极大地简化了 Python 依赖管理的复杂度,并提供了飞快的安装速度,是管理像 vllm 这样大型项目的优秀工具。

http://www.dtcms.com/a/357161.html

相关文章:

  • 电平移位器的原理
  • 群核科技--SpatialGen
  • pytest使用allure测试报告
  • Pytest 插件方法:pytest_runtest_makereport
  • 多方调研赋能AI+智慧消防 豪越科技人工智能创新获认可
  • 【网络安全领域】边界安全是什么?目前的发展及应用场景
  • java基本类型关键字
  • EasyExcel处理大数据量导出
  • 新手法务合同审查,有什么建议?
  • 单点登录(SSO)前端(Vue2.X)改造
  • 关于锁相放大器(LIA)的系统论文研究(重点于FPGA部分)
  • 设计模式:装饰模式(Decorator Pattern)
  • iOS开发之苹果系统包含的所有字体库
  • 最小生成树——Kruskal
  • 【机器学习入门】3.1 关联分析——从“购物篮”到推荐系统的核心逻辑
  • 响应式编程框架Reactor【2】
  • Windows C盘完全占满会如何?
  • 2024-06-13-debian12安装Mariadb-Galera-Cluster+Nginx+Keepalived高可用多主集群
  • 毕马威 —— 公众对人工智能的信任、态度及使用情况调查
  • C++基础(②VS2022创建项目)
  • docker compose设置命令别名的方法
  • Windows WizTree-v4.27.0.0-x64[磁盘空间分析软件]
  • C++中类,this指针,构造函数,析构函数。拷贝构造函数,初步理解运算符重载,初步理解赋值运算符重载
  • 2.4G串口透传模组 XL2417D无线模块,实测通讯距离300m左右!
  • 第23章笔记|PowerShell 高级远程控制配置(端点、自定义、双向认证、多跳)
  • 常见视频编码格式对比
  • GraphRAG 知识图谱核心升级:集成 langextract 与 Gemini ----实现高精度实体与关系抽取
  • 捡捡java——2、基础05
  • Redis不同场景下的注意事项
  • 如何在FastAPI中玩转全链路追踪,让分布式系统故障无处遁形?