当前位置: 首页 > news >正文

普通用户的服务器连接与模型部署相关记录

普通用户的服务器连接与模型部署相关记录

一、从登录到使用自己的conda

1.账号登陆

ssh xxx@172.31.226.236

2.下载与安装conda

下载conda:

wget -c https://repo.anaconda.com/archive/Anaconda3-2023.03-1-Linux-x86_64.sh

安装conda:

bash Anaconda3-2023.03-1-Linux-x86_64.sh

设置环境:

vim ~/.bashrc

export PATH="/home/data5/xxx/anaconda3/bin:$PATH"

刷新环境:
source ~/.bashrc

激活自己的conda:

source /home/data5/xxx/anaconda3/bin/activate

可直接写入~/.bashrc

/home/data5/xxx/anaconda3/bin/activate

3.过程性问题

系统环境变量中显示/不显示环境名称:

conda config --add envs_dirs /home/data5/xxx/anaconda3/envsconda config --remove envs_dirs /home/adminroot/anaconda3/envs~/.condarc

envs_dirs中写入:/home/data5/xxx/anaconda3/envs

验证

出现自己的conda的版本而不是系统的conda版本即可

conda --version

实时查看gpu占用

watch -n 1 nvidia-smi

二、pychram连接服务器

pychram连接服务器:
Pycharm远程连接服务器并运行代码(详细!)_pycharm将代码同步到远程服务器-CSDN博客

Pycharm 远程开发时,使用远程服务器的终端功能_pycharm远程连接服务器怎么用终端-CSDN博客

三、window下ollama本地大模型部署

window安装ollama和docker和Open-WebUI:

在Windows上轻松部署本地大语言模型:Ollama与Open-WebUI的完整指南_ollama 安装-CSDN博客

Open-WebUI安装:

史上最简单open-webui安装方式!!!_open-webui 安装-CSDN博客

四、window下大模型部署

flash-attn要求torch版本较低

但是Qwen2要求tranformer版本较高,torch版本也较高

然后跑Qwen2模型又不得不两个都具备,所以在window上无解

五、linux下使用vllm部署大模型(request请求形式–可多卡)

1、linux安装vllm

pip install vllm

2、vllm启动Qwen2-VL-7B-Instruct

1)首先启动Qwen2-VL-7B-Instruct–CPU的

vllm serve Qwen2-VL-7B-Instruct --dtype auto --port 8000 --limit_mm_per_prompt image=4 --max_model_len 8784 --gpu_memory_utilization 0.8

或者先安装conda install -c nvidia nccl

启动Qwen2-VL-7B-Instruct-GPU的:vllm serve Qwen2-VL-7B-Instruct --dtype half --port 8000 --tensor-parallel-size 2 --pipeline-parallel-size 2 --gpu-memory-utilization 0.7 --limit_mm_per_prompt image=4 --max_model_len 8784

2)其次调用

Vllm进行Qwen2-vl部署(包含单卡多卡部署及爬虫请求)_vllm部署 qwen2-vl-CSDN博客

不能进行图片啊啊啊,似乎还是属于内存分配不够的问题

六、linux下部署大模型(非请求形式)

跑模型Qwen2-VL-7B-Instruct出现爆内存情况

1、转更小的模型Qwen2-VL-2B-Instruct+量化(flash-attn或者Auto-GPTQ)

将cuda10.2换成cuda11.8才能配flash-attn:

手动安装flash地址(实际上只能手动,自动报错解决不了):Releases · Dao-AILab/flash-attention

自动安装flash:安装flash-attention失败的终极解决方案_building wheels for collected packages: flash-attn-CSDN博客

Linux 服务器下非root用户安装CUDA完整流程(多次踩雷经验总结)_linux cuda安装-CSDN博客

cp cudnn-linux-x86_64-8.9.7.29_cuda11-archive/include/cudnn.h /home/data5/xxx

/cuda11.8/include/

cp cudnn-linux-x86_64-8.9.7.29_cuda11-archive/lib/libcudnn* /home/data5/xxx/cuda11.8/lib64/

chmod a+r /home/data5/xxx/cuda11.8/include/cudnn*.h

chmod a+r /home/data5/xxx/cuda11.8/lib64/libcudnn*

source ~/.bashrc

pip install -i https://pypi.tuna.tsinghua.edu.cn/simple auto-gptq

使用:Py之auto-gptq:auto-gptq的简介、安装、使用方法之详细攻略-CSDN博客

结果:

2B+单图:量化与否都可以

2B+双图:得量化

7B+单图:得量化

7B+双图:得量化

实现网页跑qwen2:Qwen2本地web Demo_qwen2 7b 硬件要求-CSDN博客

qwen2测试代码地址(没有考虑显存不足的情况):MLM之Qwen:Qwen2-VL的简介、安装和使用方法、案例应用之详细攻略_qwen2-vl使用-CSDN博客

2、分卡跑

本地多卡(3090)部署通义千问Qwen-72B大模型提速实践:从龟速到够用_千问72b部署-CSDN博客

大模型笔记之-Qwen72B-chat-int4部署 |使用双卡3090成功运行_运行qwen-72b-CSDN博客

conda install pytorch==2.4.0 torchvision==0.19.0 torchaudio==2.4.0  pytorch-cuda=11.8 -c pytorch -c nvidiapip install imodelsxpip install pillow requestspip install transformerspip install torch==2.4.0pip install accelerate>=0.26.0pip install flash_attn-2.6.3+cu118torch2.4cxx11abiFALSE-cp311-cp311-linux_x86_64.whlpip install qwen_vl_utilspip install --upgrade spark_ai_pythonpip install openaipip install opencv-python

相关文章:

  • 代码随想录算法训练营 Day49 图论Ⅰ 深度优先与广度优先
  • 基于 Zookeeper 部署 Kafka 集群
  • Linux系统:ext2文件系统的核心概念和结构
  • 什么是open BMC?
  • GO语言(一期)常用关键字总结
  • C++学习:六个月从基础到就业——C++17:结构化绑定
  • 数据治理进阶:精读62页数据治理体系建设文档【附全文阅读】
  • 二十一、案例特训专题4【数据库篇】
  • Vue3进行工程化项目,保姆级教学(编译软件:vscode)大部分编译平台适用
  • EmuEdit
  • JAVA EE(进阶)_进阶的开端
  • IS-IS 中间系统到中间系统
  • Java IO框架
  • 安卓端互动娱乐房卡系统调试实录:从UI到协议的万字深拆(第一章)
  • ADVB帧格式
  • 生产模式下react项目报错minified react error #130的问题
  • 学习黑客Active Directory 入门指南(三)
  • 《沙尘暴》观影记:当家庭成为人性的修罗场
  • React中巧妙使用异步组件Suspense优化页面性能。
  • 【Spring】核心机制:IOC与DI深度解析
  • 事关中国,“英伟达正游说美国政府”
  • 铜川耀州窑遗址内违法矿场存在多年,省市区文物部门多次处罚叫停仍在生产
  • 梅花奖在上海|秦海璐:演了15年《四世同堂》,想演一辈子
  • 上海交大曾小勤:科技传播不应停留于知识搬运,要做科学思维的播种机
  • 下周或迎外贸“抢出口”高峰,跨境电商敏感货物如何便利化“登机”?
  • 侵害孩子者,必严惩不贷!3名性侵害未成年人罪犯今日执行死刑