当前位置: 首页 > wzjs >正文

改织梦模板做网站淘宝关键词优化技巧教程

改织梦模板做网站,淘宝关键词优化技巧教程,做网站收入怎样,品牌推广建议背景介绍 硬件 A800 80G模型 chat-glm4-9b-128K环境 生产正常显存占用情况 glm4 占用32GB 其他显存工占用38GB左右 总共剩余10GB。 问题描述 推理时报错日志,由于内网环境无法拿出日志,与下面的类似。 File "/data/miniconda3_new/envs/vllm-new…

背景介绍

  • 硬件
    A800 80G
  • 模型
    chat-glm4-9b-128K
  • 环境
    生产
  • 正常显存占用情况
    glm4 占用32GB
    其他显存工占用38GB左右
    总共剩余10GB。

问题描述

推理时报错日志,由于内网环境无法拿出日志,与下面的类似。

  File "/data/miniconda3_new/envs/vllm-new/lib/python3.10/site-packages/vllm/engine/async_llm_engine.py", line 654, in add_requestself.start_background_loop()File "/data/miniconda3_new/envs/vllm-new/lib/python3.10/site-packages/vllm/engine/async_llm_engine.py", line 476, in start_background_loopraise AsyncEngineDeadError(
vllm.engine.async_llm_engine.AsyncEngineDeadError: Background loop has errored already.

再往前追述日志,发现有超长文本请求,字符长度10万左右,显存不够报类似如下错误

torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 10.78 GiB

问题分析

根本原因还是显存不够,但是一个请求推理显存不够后这个请求失败应该释放调占用的显存,不应该影响之后的请求才对。

引擎启动代码如下:

if __name__ == "__main__":MODEL_PATH = sys.argv[1]tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH, trust_remote_code=True)engine_args = AsyncEngineArgs(model=MODEL_PATH,tokenizer=MODEL_PATH,# 如果你有多张显卡,可以在这里设置成你的显卡数量tensor_parallel_size=1,dtype="bfloat16",#dtype="half",trust_remote_code=True,# 占用显存的比例,请根据你的显卡显存大小设置合适的值,例如,如果你的显卡有80G,您只想使用24G,请按照24/80=0.3设置gpu_memory_utilization=0.4,enforce_eager=True,worker_use_ray=False,disable_log_requests=True,max_model_len=MAX_MODEL_LENGTH, # 这里是128000)engine = AsyncLLMEngine.from_engine_args(engine_args)uvicorn.run(app, host='0.0.0.0', port=8000, workers=1)

引擎调用部分代码如下:

sampling_params = SamplingParams(**params_dict)
try:async for output in engine.generate(inputs=inputs, sampling_params=sampling_params, request_id=f"{time.time()}"):output_len = len(output.outputs[0].token_ids)input_len = len(output.prompt_token_ids)ret = {"text": output.outputs[0].text,"usage": {"prompt_tokens": input_len,"completion_tokens": output_len,"total_tokens": output_len + input_len},"finish_reason": output.outputs[0].finish_reason,}yield ret
except Exception as e:logger.error(f"错误:{e}")raise e
finally:gc.collect()torch.cuda.empty_cache()
  1. 引擎崩溃后每次也是这里的logger.error输出的Background loop has errored already.
  2. 第一次内存不够报错日志也是这里有显示,并且有调用finally模块中的清空缓存逻辑。
  3. 还是重复上面的问题,一个请求不应该导致整个引擎崩溃,从而导致之后的请求也无法处理,不知道是否是vllm的bug??? 看到能多人也在github上提了issue,但是目前无解决方案。参考:
    https://github.com/vllm-project/vllm/issues/6361

解决方案

经过上面的分析我们知道是显存不够引起的,我们这里只对显存不够做调优来减少这种情况发生,并不能解决显存不够后引发的引擎崩溃问题。
做如下参数调整

  • enable-chunked-prefill = True
  • max_num_batched_tokens = 8192
  • max_num_seqs = 10

参数介绍

enable-chunked-prefill

  • 是 vLLM 中的一个优化功能,主要用于处理长上下文或大提示(prompt)情况下的内存和计算效率问题。默认False

max_num_batched_tokens

预填充阶段的最大批处理token数:

  • 当 enable-chunked-prefill=True 时,决定每个chunk(块)的最大token数

  • 解码阶段的最大批处理token数:限制解码阶段同时处理的token总数

  • 工作原理
    当启用 chunked prefill 时:
    系统将长prompt分割为多个chunk
    每个chunk的token数不超过 max_num_batched_tokens
    依次处理这些chunk
    例如:
    如果prompt有5000 tokens,max_num_batched_tokens=2048
    将被分割为:2048 + 2048 + 904 tokens的三个chunk

  • 默认值
    不同的显卡,不同的内存默认值不一样
    详细逻辑见官方代码:https://github.com/vllm-project/vllm/blob/main/vllm/engine/arg_utils.py

  • 建议
    高端GPU(如A100 80GB):可设较大值(4096-8192)
    消费级GPU(如3090 24GB):建议较小值(1024-2048)

max_num_seqs
控制并发数量,如果你的显存不够是由于并发引起的,可以设置这个参数。

其他参数:

  • max_model_len : 允许模型处理的最大token数量,可根据实际情况限制,由于我们就是要处理长文本的,所以我这里没有调整。
  • gpu_memory_utilization GPU显存占比,尽量初始化时小一点,预留足够的显存空间。

总结

经测试以上参数调整后可以显著控制GPU的占用情况,减少OutOfMemory情况的发生,提高系统可用性,后续也会尝试升级VLLM版来解决崩溃后无法处理后续请求的问题,但是显存都是稀缺资源,本身也要做好调优。

http://www.dtcms.com/wzjs/388214.html

相关文章:

  • 广州专业网络推广公司专业seo优化推广
  • 禁用wordpress裁剪福州排名seo公司
  • 免费建立自己微网站吗网站推广包括
  • 怎么免费建设网站石家庄谷歌seo
  • 汉口制作网站seo公司怎么推广宣传
  • 重庆网站产品推广北京seo公司公司
  • 河南网站开发培训疫情防控最新数据
  • 站长爱it网络营销方案案例范文
  • 精准营销数据网站seo在线诊断
  • 以百度云做网站空间找平台推广
  • wordpress电影主题博客51趣优化网络seo工程师教程
  • 山西住房和城乡建设委员会网站企业qq下载
  • 做家电家具回收用哪个网站好百度指数怎么查询
  • 微信小程序视频网站开发教程免费网站搭建平台
  • blog网站开发实例网络营销五个特点
  • 湖北网站建设公司app拉新平台
  • 网站建设摘要如何联系百度推广
  • 哪里医院做无痛人流便宜 咨询网站在线seo查询工具
  • 苏州网页设计费用win10优化大师是官方的吗
  • 邢台网站制作哪里做今天今日头条新闻
  • 交友系统网站建设全国疫情最新情况公布
  • 自己做下载网站吗成都本地推广平台
  • 南皮哪有做网站的河南seo快速排名
  • 自适应网站导航怎么做客户管理软件哪个好用
  • 商业设计网站推荐百度seo怎么关闭
  • 专门找人做软件的网站百度移动端排名软件
  • wordpress防垃圾评论搜索引擎优化员简历
  • 自己的免费网站空间网络推广发帖网站
  • 东莞网络公司现状做网络优化哪家公司比较好
  • 在线图片修改seo网站技术培训