当前位置: 首页 > news >正文

vllm+openwebui,玩转私有化AI

架构

采用vllm推理框架,启动llamafactory微调训练好的大模型

openwebui做前端调用

使用

vllm启动:vllm serve /root/autodl-tmp/model/Qwen/Qwen2.5-VL-3B-Instruct-merge(模型地址)

安装open webui流程

#创建一个open-webui的conda环境
conda activate open-webui
# 安装open-webui
pip install -U open-webui torch transformers

# 切换到新建的环境
conda activate open-webui
#配置
export HF_ENDPOINT=https://hf-mirror.com
#因为open-webui默认为ollama框架,所以使用vllm框架启动大模型的话需要将这里改为false
export ENABLE_OLLAMA_API=false
#调用大模型的地址,vllm的默认启动端口为8000
export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1

#启动openwebui
open-webui serve

启动openwebui后,如果没有跳转到web页面的话,需要自己手动配置一下8080端口转发

然后再去访问8080端口,就会出现这个页面,这个是随便输入的

然后就可以跟大模型进行对话

相关文章:

  • 无人机监视系统工作原理与运行要点!
  • HAL_UARTEx_ReceiveToIdle_DMA 开启,但是无法进入空闲中断;
  • Day 25:股票的最大利润 + 1到n求和
  • Pyside6 开发 使用Qt Designer
  • getID3获取本地或远程视频时长
  • 如何高效利用 Postman Mock Server? 模拟 API 响应,加速开发
  • Google PLA 营销库存服务设计技术难点与要点
  • 【PySpark大数据分析概述】01 大数据分析概述
  • 编程技术水平横向和垂直发展的抉择全方位分析
  • 复习一下冒泡排序算法
  • 推荐:大模型靠啥理解文字?通俗解释:词嵌入embedding
  • 06-ADC
  • MYTOOL-电路模块
  • windows安装JDK并配置环境变量
  • Arduino示例代码讲解:Serial Event example 连续事件例子
  • 鸿蒙北向应用开发:deveco 5.0 kit化文件相关2
  • python经典类、新式类写法、多继承
  • docker save如何迁移镜像更节省空间?
  • 数据结构与算法:2,冒泡排序
  • 配置完nfs后vmware虚拟机下ubuntu/无法联网问题
  • wordpress 远程/优化公司组织架构
  • 临沂网站建设培训学校/广州seo顾问
  • wordpress分类页首页调用分类描述/seo优化及推广如何运营
  • 乐山网站建设/在线培训app
  • 建设一个电商网站的步骤/今日头条武汉最新消息
  • 罗湖专业做网站公司/东莞企业网站模板建站