当前位置: 首页 > news >正文

使用 GPUStack 纳管摩尔线程 GPU 进行大语言模型和文生图模型的推理

什么是 GPUStack?​

GPUStack 是一个用于运行 AI 模型的开源 GPU 集群管理器。

核心特性​

  • 广泛的硬件兼容性:支持管理 Apple Mac、Windows PC 和 Linux 服务器上不同品牌的 GPU。
  • 广泛的模型支持:从大语言模型 LLM、多模态模型 VLM 到 Diffusion 扩散模型、STT 与 TTS 语音模型、文本嵌入和重排序模型的广泛支持。
  • 异构 GPU 支持与扩展:轻松添加异构 GPU 资源,按需扩展算力规模。
  • 分布式推理:支持单机多卡并行和多机多卡并行推理。
  • 多推理后端支持:支持 llama-box(基于 llama.cpp 和 stable-diffusion.cpp)、vox-box 和 vLLM 作为推理后端(后面两个推理后端对摩尔线程 GPU 的支持还在适配中)。
  • 轻量级 Python 包:最小的依赖和操作开销。
  • OpenAI 兼容 API:提供兼容 OpenAI 标准的 API 服务。
  • 用户和 API 密钥管理:简化用户和 API 密钥的管理流程。
  • GPU 指标监控:实时监控 GPU 性能和利用率。
  • Token 使用和速率统计:有效跟踪 token 使用情况,并管理速率限制。

使用 GPUStack 纳管摩尔线程 GPU 进行大语言模型和文生图模型的推理​

准备工作​

  以下代码运行在 x86 架构的 Ubuntu 20.04/22.04 系统。

配置容器运行时​

请参考以下链接安装和配置容器运行时。

  1. 安装 Docker: Docker 安装指南
  2. 安装 MTT S80/S3000/S4000 驱动 (当前为 rc3.1.1): MUSA SDK 下载
  3. 安装 MT Container Toolkit (当前为 v1.9.0): MT CloudNative Toolkits 下载

检查容器运行时配置是否正确,确认输出的默认运行时为 mthreads

$ (cd /usr/bin/musa && sudo ./docker setup $PWD)
$ docker info | grep mthreadsRuntimes: mthreads mthreads-experimental runcDefault Runtime: mthreads

通过 Docker 运行 GPUStack​
$ docker run --pull always -d --name gpustack \--restart=unless-stopped \--network=host \--ipc=host \-v gpustack-data:/var/lib/gpustack \gpustack/gpustack:v0.6.0-musa

通过上述步骤,您将运行一个名为 gpustack 的容器,此容器使用主机网络模式并通过 80 端口来提供 WebUI 服务。您可以通过浏览器访问 http://localhost 来查看 GPUStack 的界面。

获取首次登录的密码​
$ docker exec -it gpustack bash
# cat /var/lib/gpustack/initial_admin_password

登录 GPUStack​

在浏览器中访问 http://localhost,输入用户名 admin 和上一步获取的密码进行登录。

查看摩尔线程 GPU 资源​

点击侧边栏中的 Resources 选项,您将看到 GPUStack 管理的所有 Worker 节点信息。

workers

通过切换 GPUs 选项卡,您可以查看每个 Worker 节点上 GPU 的使用情况和性能指标。

gpus

部署模型​

点击侧边栏中的 Models 选项,您将看到 GPUStack 管理的所有模型信息。

models-empty

通过点击右上角的 Deploy Model 按钮,您可以创建新的模型(为避免下载模型文件时间过长,此处我们部署两个已经下载好的模型)。

第一个模型是 deepseek-r1_7b_q4_0.gguf,它是将 DeepSeek-R1 Distill Qwen 7B 模型量化为 4-bit 的模型,具有较小的参数量和较快的推理速度。

models-ds

第二个模型是 stable-diffusion-v2-1_768-nonema-pruned.q4_0.gguf,它是将 Stable Diffusion 2.1 模型量化为 4-bit 的模型,具有较小的参数量和较快的推理速度。

models-sd

展开模型后,点击 replica 名称旁边的感叹号按钮,在弹出的对话框中,您可以查看模型使用的节点、GPU 和推理后端。

models

运行模型​

点击侧边栏中的 Playground 选项,您将看到 GPUStack 提供了多种模型的推理方式。

运行大语言模型​

点击侧边栏中的 Chat 选项,您可以与刚才部署的 deepseek-r1_7b_q4_0.gguf 模型进行对话。

chat

运行文生图模型​

点击侧边栏中的 Image 选项,您可以与刚才部署的 stable-diffusion-v2-1_768-nonema-pruned.q4_0.gguf 模型进行文生图的操作。

image

探索更多模型​

点击侧边栏中的 Catalog 选项,您可以查看 GPUStack 支持的更多模型。

catalog

相关文章:

  • 相同,对称,平衡,右视图(二叉树)
  • 全国青少年信息素养大赛-python编程—省赛真题—卡牌游戏
  • 国产高云FPGA实现MIPI视频解码+图像缩放,基于OV5647摄像头,提供Gowin工程源码和技术支持
  • LVS + Keepalived + Nginx 高可用负载均衡系统实验
  • 学习黑客 tcpdump
  • 如何在UI设计中更好地平衡美学与功能性?
  • IP-guard发布新版本4.87.2241.0
  • css 里面写if else 条件判断
  • [Windows] 格式工厂 FormatFactory v5.20.便携版 ——多功能媒体文件转换工具
  • 禅道——安装PHP的ioncube扩展
  • wordpress上传图片时出现服务器无法处理图片
  • 高通usecase理解
  • 对接钉钉消息样例:DING消息、机器人
  • iOS 直播弹幕礼物功能详解
  • 多模态AI终极形态?GPT-5与Stable Diffusion 3的融合实验报告
  • 【49. 字母异位词分组】
  • iOS 上线前的性能与稳定性检查流程实录:开发者的“最后一公里”(含 KeyMob 应用经验)
  • C# 高效读取大文件
  • Spark on Yarn 高可用模式部署流程
  • 如何提高服务器的QPS来应对618活动的并发流量
  • 淄博外贸网站建设公司/海外推广方法有哪些
  • 快手怎么引流推广/百度推广seo
  • 网站建设方案评标原则/优质外链
  • 网站建设公司的出路/郑州网站优化公司
  • 网站建设好多钱/东莞网络优化调查公司
  • wordpress淘宝客建站教程视频/厦门谷歌推广