当前位置: 首页 > news >正文

VLLM推理可以分配不同显存限制给两张卡吗?

环境:

VLLM 0.8.5

H20 96G

问题描述:

VLLM推理可以分配不同显存限制给两张卡吗?

一张卡90G显存,一张卡还有50多空余显存。

解决方案:

vLLM的gpu-memory-utilization参数是全局设置,不能为每张GPU单独分配不同的显存利用率。你只能设置一个统一的值,例如0.9,vLLM会在每张卡上按剩余可用显存的90%分配。

如何手动调整每张卡的可用显存或运行多个实例?

vLLM不支持为每张GPU单独设置显存利用率。若需手动调整每张卡的可用显存,可通过分别设置CUDA_VISIBLE_DEVICES环境变量,启动多个vLLM实例,每个实例绑定一张GPU,并为每个实例单独设置–gpu-memory-utilization参数。例如:

CUDA_VISIBLE_DEVICES=0 vllm serve ... --gpu-memory-utilization 0.5
CUDA_VISIBLE_DEVICES=1 vllm serve ... --gpu-memory-utilization 0.9

这样每个实例只占用指定GPU,并按需分配显存。

这样模型是不是单独运行两次?

是的,分别用CUDA_VISIBLE_DEVICES和不同–gpu-memory-utilization启动多个vLLM实例时,每个实例会单独加载一份模型,各自独立运行,互不共享显存和KV cache。

如需多卡协同推理,请用–tensor-parallel-size参数实现模型切分并行。

在这里插入图片描述
最后可以先启动别的程序,让他先占用显存,然后再启动vllm还是原来的配置
CUDA_VISIBLE_DEVICES=1 vllm serve … --gpu-memory-utilization 0.9

这样vllm这样达到推理可以分配不同显存限制给两张卡。

在这里插入图片描述
在这里插入图片描述

相关文章:

  • AI+RWA探索 AI无限可能与区块链RWA结合才具有爆长的空间 —ATRNX.AI全智能量化决策Agent
  • 从法律视角看债务管理:湖北理元理律师事务所的实践探索
  • Android 16系统源码_自由窗口(一)触发自由窗口模式
  • ​​Java UDP套接字编程:高效实时通信的实战应用与核心类解析​
  • 《关于浔川社团退出DevPress社区及内容撤回的声明》
  • SQL每日一练(3)
  • QML元素 - LevelAdjust
  • Beetle 树莓派RP2350 - 随身气压计
  • Spring Boot中如何对密码等敏感信息进行脱敏处理
  • PCB设计教程【入门篇】——PCB设计基础-PCB构成与组成
  • 国际前沿知识系列五:时间序列建模方法在头部撞击运动学测量数据降噪中的应用
  • linux 内存碎片分析
  • 2025年电工杯数学建模B题【垃圾运输】原创论文分享
  • python第三方库安装错位
  • 机器学习第二十六讲:官方示例 → 跟着菜谱学做经典菜肴
  • Vue中的事件绑定【3】
  • 天地图实景三维数据分享(江苏)
  • 同为科技 智能PDU产品选型介绍 EN10/I801CI
  • 【IEEE 2025】低光增强KANT(使用KAN代替MLP)----论文详解与代码解析
  • docker虚拟化、容器化
  • 新农村建设管理网站/seo排名优化工具
  • 购物网站前台功能模块/百度搜索广告
  • ftp上传网站全教程/营销活动怎么做吸引人
  • 中山网站制作建设/网上怎么推广产品
  • 做网站添加支付功能要多少钱/百度的链接
  • 做文案的人看什么网站/sem是什么的英文缩写