当前位置: 首页 > wzjs >正文

dede网站微信分享封面seo排名赚app

dede网站微信分享封面,seo排名赚app,360网页游戏,便宜的做网站关键词:vLLM、Ubuntu、CUDA、Docker、LLM 推理 vLLM 是目前社区里最快、最省显存的大模型推理框架之一。本文把官方文档、踩坑经验整理成一篇可落地的技术博客,给出 三种安装路径—— 零配置的 pip 一行命令开箱即用的 Docker 镜像极端场景的 CPU/源码…

关键词:vLLM、Ubuntu、CUDA、Docker、LLM 推理

vLLM 是目前社区里最快、最省显存的大模型推理框架之一。本文把官方文档、踩坑经验整理成一篇可落地的技术博客,给出 三种安装路径——

  • 零配置的 pip 一行命令
  • 开箱即用的 Docker 镜像
  • 极端场景的 CPU/源码构建

无论你手里是 A100、4090 还是纯 CPU 服务器,总有一款适合你。


1. 准备工作(所有方案通用)

组件最低要求检查命令
操作系统Ubuntu 20.04/22.04/24.04 x86_64lsb_release -a
NVIDIA 驱动≥ 515nvidia-smi
CUDA≥ 12.1(方案 1/2)nvcc --version
Python3.9–3.12python3 --version

⚠️ CPU 方案无需 CUDA


2. 方案一:pip 一行命令(最简)

适合:有 GPU、想 5 分钟跑起来。

2.1 安装驱动 & CUDA(如已装可跳过)

sudo apt update
sudo apt install -y nvidia-driver-550 cuda-toolkit-12-4
sudo reboot   # 重启生效

2.2 建立隔离环境

官方推荐用 uv(比 conda 更快):

curl -Ls https://astral.sh/uv/install.sh | bash
uv venv vllm-env --python 3.12 --seed
source vllm-env/bin/activate

(老用户可以继续 conda create -n vllm python=3.12。)

2.3 安装 vLLM

pip install vllm -i https://pypi.tuna.tsinghua.edu.cn/simple   # 国内镜像

2.4 验证

vllm --help
# 出现子命令列表即成功

3. 方案二:Docker 一行命令(零 Python 依赖)

适合:不想污染宿主机 Python、CI/CD、K8s 场景。

3.1 安装 nvidia-docker

sudo apt install -y docker.io
distribution=$(. /etc/os-release;echo $ID$VERSION_ID)
curl -fsSL https://nvidia.github.io/nvidia-docker/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-docker-keyring.gpg
curl -s -L https://nvidia.github.io/nvidia-docker/$distribution/nvidia-docker.list | \sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-docker-keyring.gpg] https://#' | \sudo tee /etc/apt/sources.list.d/nvidia-docker.list
sudo apt update && sudo apt install -y nvidia-docker2
sudo systemctl restart docker

3.2 启动 vLLM 容器

Qwen/Qwen2.5-1.5B-Instruct 为例,映射 8000 端口并挂载 HuggingFace 缓存:

sudo docker run -d --name vllm \--runtime nvidia --gpus all \-p 8000:8000 --ipc=host \-v ~/.cache/huggingface:/root/.cache/huggingface \vllm/vllm-openai:latest \--model Qwen/Qwen2.5-1.5B-Instruct

打开浏览器访问 http://localhost:8000/docs 即可看到与 OpenAI 100% 兼容的 REST 接口。


4. 方案三:CPU / 源码编译(无 GPU 也能跑)

适合:只有 CPU、需要改源码、研究量化算子。

4.1 系统依赖

sudo apt update
sudo apt install -y gcc-12 g++-12 libnuma-dev python3-dev cmake ninja-build
sudo update-alternatives --install /usr/bin/gcc gcc /usr/bin/gcc-12 10 \--slave /usr/bin/g++ g++ /usr/bin/g++-12

4.2 克隆 & 编译

git clone https://github.com/vllm-project/vllm.git
cd vllm
pip install --upgrade pip wheel packaging ninja numpy
pip install -v -r requirements/cpu.txt \--extra-index-url https://download.pytorch.org/whl/cpu
VLLM_TARGET_DEVICE=cpu python setup.py install

4.3 验证

VLLM_TARGET_DEVICE=cpu vllm --help

5. 进阶用法示例

5.1 本地模型离线推理

vllm serve /data/models/DeepSeek-R1-Distill-Qwen-7B \--host 0.0.0.0 --port 8000 \--tensor-parallel-size 2 \--max-model-len 8192

5.2 国内镜像/ModelScope

export VLLM_USE_MODELSCOPE=True   # 用 ModelScope 自动下载

5.3 常用参数速查

参数说明
--tensor-parallel-size张量并行 GPU 数
--max-model-len最大序列长度(显存杀手)
--quantization awq4-bit AWQ 量化
--gpu-memory-utilization 0.9显存占用比例,默认 0.9

6. 故障排查 Top3

现象原因解决
ImportError: libcudart.so.12 找不到CUDA 版本不匹配检查 nvidia-smi 与 pip 安装的 CUDA wheel 是否一致
容器启动报 failed to initialize NVMLnvidia-docker 没装好重新跑 3.1 节
CPU 方案内存爆炸未设置 --max-model-len显式指定一个较小值,如 2048

7. 小结

方案耗时适用场景
pip 一行命令5 min有 GPU,快速体验
Docker3 min生产、CI、K8s
CPU 源码20 min无 GPU、二次开发

把这篇博客收藏起来,下次无论是新机器还是旧服务器,都能 5 分钟让大模型跑起来!


作者:@yourname
转载请注明出处,欢迎留言交流。

http://www.dtcms.com/wzjs/112246.html

相关文章:

  • 网站10m数据库深圳龙华区大浪社区
  • 网站上传办法免费软文推广平台都有哪些
  • 个人如何做商城网站百度客服投诉中心
  • 工控做网站百度推广技巧方法
  • 只会前端可以做动态网站吗南昌seo搜索排名
  • 宝安做网站公司乐云seo谷歌paypal官网登录入口
  • 哪里可以免费做网站西安seo排名优化推广价格
  • 市城乡规划建设局网站外贸网络推广
  • 免费企业网站建设技术广州网站建设方案维护
  • 网页设计与制作(第2版)课件一键优化免费下载
  • 做电商哪个设计网站比较好百度seo关键词排名 s
  • vr成品网站源码百度搜题网页版入口
  • 政府网站建设项目背景西安seo专员
  • 你愿不愿意做我女朋友网站网站排名查询
  • 做网站需要找什么客户中国软文网
  • 广州网站优化招聘seo服务外包报价
  • 网站访问量查询国内建站平台
  • 百度网站降级的原因seo关键词工具
  • 沈阳做网站推广成都百度推广代理公司
  • 上海定制网站建设公司全网营销整合营销
  • 哈尔滨模板建站服务商杭州seo整站优化
  • web网站设计培训机构珠海优化seo
  • 找第三方做网站 需要注意百度seo建议
  • 门头沟网站开发百度手机
  • 微信里的小程序怎么开店长沙seo排名公司
  • wordpress商品导出淘宝谷歌搜索优化seo
  • 揭阳网站建设维护知名的建站公司
  • 怀化网站seo大连企业网站建站模板
  • 安徽省住房建设部官方网站杭州seo代理公司
  • 做收钱的网站要什么条件长沙营销网站建设