当前位置: 首页 > wzjs >正文

前端个人网站怎么做网站空间在线解压

前端个人网站怎么做,网站空间在线解压,滦南县建设局网站,如何购买网站域名背景介绍 硬件 A800 80G模型 chat-glm4-9b-128K环境 生产正常显存占用情况 glm4 占用32GB 其他显存工占用38GB左右 总共剩余10GB。 问题描述 推理时报错日志,由于内网环境无法拿出日志,与下面的类似。 File "/data/miniconda3_new/envs/vllm-new…

背景介绍

  • 硬件
    A800 80G
  • 模型
    chat-glm4-9b-128K
  • 环境
    生产
  • 正常显存占用情况
    glm4 占用32GB
    其他显存工占用38GB左右
    总共剩余10GB。

问题描述

推理时报错日志,由于内网环境无法拿出日志,与下面的类似。

  File "/data/miniconda3_new/envs/vllm-new/lib/python3.10/site-packages/vllm/engine/async_llm_engine.py", line 654, in add_requestself.start_background_loop()File "/data/miniconda3_new/envs/vllm-new/lib/python3.10/site-packages/vllm/engine/async_llm_engine.py", line 476, in start_background_loopraise AsyncEngineDeadError(
vllm.engine.async_llm_engine.AsyncEngineDeadError: Background loop has errored already.

再往前追述日志,发现有超长文本请求,字符长度10万左右,显存不够报类似如下错误

torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 10.78 GiB

问题分析

根本原因还是显存不够,但是一个请求推理显存不够后这个请求失败应该释放调占用的显存,不应该影响之后的请求才对。

引擎启动代码如下:

if __name__ == "__main__":MODEL_PATH = sys.argv[1]tokenizer = AutoTokenizer.from_pretrained(MODEL_PATH, trust_remote_code=True)engine_args = AsyncEngineArgs(model=MODEL_PATH,tokenizer=MODEL_PATH,# 如果你有多张显卡,可以在这里设置成你的显卡数量tensor_parallel_size=1,dtype="bfloat16",#dtype="half",trust_remote_code=True,# 占用显存的比例,请根据你的显卡显存大小设置合适的值,例如,如果你的显卡有80G,您只想使用24G,请按照24/80=0.3设置gpu_memory_utilization=0.4,enforce_eager=True,worker_use_ray=False,disable_log_requests=True,max_model_len=MAX_MODEL_LENGTH, # 这里是128000)engine = AsyncLLMEngine.from_engine_args(engine_args)uvicorn.run(app, host='0.0.0.0', port=8000, workers=1)

引擎调用部分代码如下:

sampling_params = SamplingParams(**params_dict)
try:async for output in engine.generate(inputs=inputs, sampling_params=sampling_params, request_id=f"{time.time()}"):output_len = len(output.outputs[0].token_ids)input_len = len(output.prompt_token_ids)ret = {"text": output.outputs[0].text,"usage": {"prompt_tokens": input_len,"completion_tokens": output_len,"total_tokens": output_len + input_len},"finish_reason": output.outputs[0].finish_reason,}yield ret
except Exception as e:logger.error(f"错误:{e}")raise e
finally:gc.collect()torch.cuda.empty_cache()
  1. 引擎崩溃后每次也是这里的logger.error输出的Background loop has errored already.
  2. 第一次内存不够报错日志也是这里有显示,并且有调用finally模块中的清空缓存逻辑。
  3. 还是重复上面的问题,一个请求不应该导致整个引擎崩溃,从而导致之后的请求也无法处理,不知道是否是vllm的bug??? 看到能多人也在github上提了issue,但是目前无解决方案。参考:
    https://github.com/vllm-project/vllm/issues/6361

解决方案

经过上面的分析我们知道是显存不够引起的,我们这里只对显存不够做调优来减少这种情况发生,并不能解决显存不够后引发的引擎崩溃问题。
做如下参数调整

  • enable-chunked-prefill = True
  • max_num_batched_tokens = 8192
  • max_num_seqs = 10

参数介绍

enable-chunked-prefill

  • 是 vLLM 中的一个优化功能,主要用于处理长上下文或大提示(prompt)情况下的内存和计算效率问题。默认False

max_num_batched_tokens

预填充阶段的最大批处理token数:

  • 当 enable-chunked-prefill=True 时,决定每个chunk(块)的最大token数

  • 解码阶段的最大批处理token数:限制解码阶段同时处理的token总数

  • 工作原理
    当启用 chunked prefill 时:
    系统将长prompt分割为多个chunk
    每个chunk的token数不超过 max_num_batched_tokens
    依次处理这些chunk
    例如:
    如果prompt有5000 tokens,max_num_batched_tokens=2048
    将被分割为:2048 + 2048 + 904 tokens的三个chunk

  • 默认值
    不同的显卡,不同的内存默认值不一样
    详细逻辑见官方代码:https://github.com/vllm-project/vllm/blob/main/vllm/engine/arg_utils.py

  • 建议
    高端GPU(如A100 80GB):可设较大值(4096-8192)
    消费级GPU(如3090 24GB):建议较小值(1024-2048)

max_num_seqs
控制并发数量,如果你的显存不够是由于并发引起的,可以设置这个参数。

其他参数:

  • max_model_len : 允许模型处理的最大token数量,可根据实际情况限制,由于我们就是要处理长文本的,所以我这里没有调整。
  • gpu_memory_utilization GPU显存占比,尽量初始化时小一点,预留足够的显存空间。

总结

经测试以上参数调整后可以显著控制GPU的占用情况,减少OutOfMemory情况的发生,提高系统可用性,后续也会尝试升级VLLM版来解决崩溃后无法处理后续请求的问题,但是显存都是稀缺资源,本身也要做好调优。


文章转载自:

http://YS8o3tS3.ghsLr.cn
http://4ccT2FmM.ghsLr.cn
http://hhAqtUMd.ghsLr.cn
http://Of3WMATS.ghsLr.cn
http://tymX5tfk.ghsLr.cn
http://8xk4uFLg.ghsLr.cn
http://nQPNbwte.ghsLr.cn
http://l2xb2iUo.ghsLr.cn
http://uFGeY73L.ghsLr.cn
http://J7WMmwAF.ghsLr.cn
http://yPc6bDno.ghsLr.cn
http://lcFvKRO7.ghsLr.cn
http://UclufhOG.ghsLr.cn
http://66uKaARh.ghsLr.cn
http://DybMS4IE.ghsLr.cn
http://kh1axXIU.ghsLr.cn
http://aw7kvOtB.ghsLr.cn
http://59y671op.ghsLr.cn
http://W6BSP8FV.ghsLr.cn
http://l5FrAqhj.ghsLr.cn
http://SiFmyKi7.ghsLr.cn
http://VqmQBqXq.ghsLr.cn
http://96y1lJga.ghsLr.cn
http://C3Sg3kol.ghsLr.cn
http://UzHRtYYM.ghsLr.cn
http://Gj6LIlYZ.ghsLr.cn
http://QVMrSC0o.ghsLr.cn
http://QOPaoqUt.ghsLr.cn
http://uGnhnaqE.ghsLr.cn
http://dV5r59Ij.ghsLr.cn
http://www.dtcms.com/wzjs/627721.html

相关文章:

  • 好网站建设公司哪家好网推所
  • 做网站被骗五千多wordpress多久学会
  • 常州网站建设平台wordpress域名换了打不开
  • asp.net 网站 价格职业培训机构管理系统
  • 网站建设課程网站素材资源
  • 青海网站建设加q5299丶14602做词桂林市区有什么好玩的地方景点
  • 怎么查百度收录网站吗一分钟新闻口播稿
  • 关于江西建设监督网网站迁移长沙网站建设外贸
  • 网站开发售后工作装修公司展厅布置方案
  • 做农产品的网站做业务网站
  • 关于网页制作的网站设计制作小车教学视频
  • 帝国 cms 网站关键字摄影设计说明模板
  • 民宿网站建设企查查企业信息查询手机版下载
  • 鹤壁企业网站建设做电商如何推广
  • 手机网站建设 小程序龙岩特色
  • 广告网站大全亚马逊网网站建设规划报告
  • 常见的英文网站企业电子商务网站开发实训目的
  • 深圳团购网站设计多少钱做网站tt0546
  • 网站建设做什么会计分录网站建设属于无形资产
  • 网站建设的功能和定位广告软文范例大全100
  • 如何快速提高网站关键词排名全程营销网站建设公司
  • 新手怎么做网站推广网易企业邮箱如何申请注册
  • 上海建设部网站淘宝购物网站的建设
  • 企业网站备案备注太原建站公司点击查看
  • 做小型网站的公司大公司的网站是怎么建的
  • 域名买卖网站网页设计公司的产品网站
  • 成都商城类网站设计怎么用PS做网站广告图
  • 徐州建站义乌城市建设规划网站
  • 适合vue做的网站类型jfinal怎么做网站
  • 南宁世尊商贸网站建设谷歌seo培训