当前位置: 首页 > wzjs >正文

门户网站属于新媒体吗查询网站流量的网址

门户网站属于新媒体吗,查询网站流量的网址,教学平台,本地的唐山网站建设vllm 部署 Qwen2.5-VL-7B-Instruct-AWQ ( 基于 docker ) 作者项目不允许部署 Qwen2.5-VL-7B-Instruct 非量化版,因为作者目前是 4090 48G 魔改过的, 上面已经跑了一个ollama程序,导致显存只剩下了20G不到&#xff0c…

vllm 部署 Qwen2.5-VL-7B-Instruct-AWQ

( 基于 docker )

作者项目不允许部署 Qwen2.5-VL-7B-Instruct 非量化版,因为作者目前是 4090 48G 魔改过的,
上面已经跑了一个ollama程序,导致显存只剩下了20G不到,
如果是 24 G 内存,可以跑 Qwen2.5-VL-7B-Instruct 非量化版,操作一样

目前作者环境如下:

驱动CUDA显卡型号显卡块数
560.35.0312.6.14090 48G8

下载模型

modelscope download --model Qwen/Qwen2.5-VL-7B-Instruct-AWQ --local_dir  /data/qwen2.5/Qwen2.5-VL-7B-Instruct-AWQ

开始配置

docker 配置

vim /etc/docker/daemon.json
{
"registry-mirrors": ["https://docker.cloudmessage.top","https://kfp63jaj.mirror.aliyuncs.com","https://j47dskil.mirror.aliyuncs.com"],
"ipv6": false,
"max-concurrent-downloads": 10,
"log-driver": "json-file",
"log-level": "warn",
"log-opts": {
"max-size": "10m",
"max-file": "3"},"runtimes": {"nvidia": {"path": "/usr/bin/nvidia-container-runtime","runtimeArgs": []}},
"default-runtime": "nvidia",
"data-root": "/data/docker"
}

docker 安装 vllm

###镜像比较大16G多,还是先拉下来再运行
docker pull vllm/vllm-openai:latest

运行 程序

docker run --runtime nvidia --gpus "device=0"   --name vllm-qwen2.5-vl-7b_AWQ \
-v /data/qwen2.5:/data/qwen2.5 \
-v /data/vllm_cache:/root/.cache/vllm \
-p 8110:8000 \
-e CUDA_VISIBLE_DEVICES=0 \
-d vllm/vllm-openai:latest \
--model /data/qwen2.5/Qwen2.5-VL-7B-Instruct-AWQ \
--dtype float16 \
--block-size 16 \	
--use-v2-block-manager \
--max-num-batched-tokens 8192 \
--max-num-seqs 32--gpus "device=0"  # 指定显卡,0是第一块,1是第二块
--name vllm-qwen2.5-vl-7b_AWQ \ # docker 容器名称
-v /data/qwen2.5:/data/qwen2.5 \ # 模型存放目录
-v /data/vllm_cache:/root/.cache/vllm \ # vllm 目录
-p 8110:8000 \  # 映射端口
-e CUDA_VISIBLE_DEVICES=0 \ #强制容器仅使用 GPU 设备 0,因为容器中只能看到一块显卡
-d vllm/vllm-openai:latest \  # 指定镜像
--model /data/qwen2.5/Qwen2.5-VL-7B-Instruct-AWQ \ # 指定模型
--dtype float16 \  # 混合精度推理
--block-size 16 \  #  KV缓存块大小	
--use-v2-block-manager \  # 新版显存管理器	
--max-num-batched-tokens 8192 \ # 最大批处理tokens(4096-16384)
--max-num-seqs 32 最大并发请求数

测试程序

# 创建虚拟环境
conda create -n qwenvl python=3.11 -y
conda activate qwenvl
vim vllm_ocr.py
import base64
import time  # 导入time模块
from openai import OpenAIdef encode_image(image_path):with open(image_path, "rb") as image_file:return base64.b64encode(image_file.read()).decode('utf-8')# 初始化 OpenAI 客户端
client = OpenAI(base_url="http://192.168.3.164:8110/v1",api_key="NOT_NEED"
)# 本地图片路径
image_path = "1744184033544.jpg"# 编码图片
base64_image = encode_image(image_path)# 记录开始时间
start_time = time.time()response = client.chat.completions.create(model="/data/qwen2.5/Qwen2.5-VL-7B-Instruct-AWQ",# 仔细分析图片中的内容后,请以HTML结构化(含所有非表格文字)完整输出。\n注意:不需要 <style>标签messages=[{"role": "user","content": [{"type": "text", "text": "完整输出图中所有相关文字"},{"type": "image_url","image_url": {"url": f"data:image/jpeg;base64,{base64_image}",},},],}],max_tokens=4096,
)# 计算耗时
elapsed_time = time.time() - start_timeprint(response.choices[0])
print(f"\n请求耗时: {elapsed_time:.2f}秒")  # 打印耗时,保留两位小数
python vllm_ocr.py

在这里插入图片描述

docker ps -a
docker logs -f vllm-qwen2.5-vl-7b_AWQ

在这里插入图片描述

1744184033544.jpg 图片内容如下

在这里插入图片描述

http://www.dtcms.com/wzjs/159238.html

相关文章:

  • 网站建设大赛策划书淘宝关键词优化技巧
  • 做app和网站哪个比较好用百度网盘下载速度
  • 专门做图片是网站西安最新消息今天
  • 为什么建设旅游网站房地产网站建设
  • 开源项目管理系统天津优化加盟
  • 温州做网站定制搜索引擎优化心得体会
  • 备案名称和网站名称不一致微信公众平台开发
  • 两学一做网站小红书seo是什么意思
  • 做网站泰州东莞seo建站哪家好
  • 网站建设文案详情关键词歌词简谱
  • 公司做网站需要什么内容惠城网站设计
  • 江津哪里找做网站的企业推广策划方案
  • 在电脑上怎么建设网站厦门排名推广
  • 个人如果做网站赚钱搜索引擎搜索
  • 业务自助下单平台网站seo基础视频教程
  • 萧山做网站公司广州市运营推广公司
  • php网站只能打开首页北京seo网站开发
  • 安卓盒子做网站推广平台排行榜
  • 衢州专业做网站优化设计一年级下册数学答案
  • .net如何做直播网站网站建设策划
  • 广东深圳网站建设方便app注册推广团队
  • 国外优惠卷网站如何做网站收录情况查询
  • 福州公司建设网站泉州网站seo公司
  • world做网站怎么做连接有道搜索
  • 中介订制网站开发互联网营销师培训课程
  • 关于政府门户网站建设_以下说法正确的是高端网站公司
  • 展示网站源码下载nba最新排行榜
  • 百度域名查询入口泸州网站优化推广
  • 网站建设运营合同模板网络seo哈尔滨
  • 镇江整站优化北京昨晚出什么大事