当前位置: 首页 > news >正文

OpenShift AI - 用 Hardware profiles 为运行环境分配可用的硬件规格

《OpenShift / RHEL / DevSecOps 汇总目录》
说明:本文已经在 OpenShift 4.19 + OpenShift AI 2.29 的环境中验证

启用 Hardware profiles 功能

截止到 OpenShift AI 2.22,Hardware profiles 虽然还处于 Technology Preview 阶段,但因为原有的 Accelerator profiles 功能即将被淘汰,因此本文就介绍功能更强的 Hardware profiles。

  1. 执行命令编辑 OdhDashboardConfig 对象,添加 disableHardwareProfiles: false 一行即可。
$ oc edit OdhDashboardConfig odh-dashboard-config
...
spec:dashboardConfig:disableAcceleratorProfiles: falsedisableBYONImageStream: falsedisableClusterManager: falsedisableCustomServingRuntimes: falsedisableDistributedWorkloads: falsedisableHardwareProfiles: false ### add this line and save ###
...
  1. 完成后进入 OpenShift AI 控制台的 Settings -> Hardware profiles 菜单即可。注意:Hardware profiles 菜单出现后,原有 Accelerator profiles 菜单就消失了。
    在这里插入图片描述

创建 Hardware profile

  1. 在 Hardware profiles 页面中点击 Create new hardware profile 按钮。
  2. 在 Create hardware profile 页面中,将 Name 设为 Small with L4,即带有 NVIDIA L4 的小型运行环境。
    在这里插入图片描述
  3. 可以将 Visibility 设为只对 Workbenchs 可见。
    在这里插入图片描述
  4. 在 Resource requests and limits 部分通过 Add resource 按钮添加一个 Accelerator 类型的资源。
    在这里插入图片描述
  5. 在 Node selectors 部分点击 Add node selector 按钮,根据配有 GPU 的节点的 nvidia.com/gpu.product: NVIDIA-L4 标签添加一个 selector。
    在这里插入图片描述
  6. 最后点击 Create hardware profile 即可。

使用 Hardware profile

  1. 在 Workbench 的配置页面中选择 Small with L4 的 Hardware profile,并且可以调整 CPU、内存和 GPU 的使用数量。
    在这里插入图片描述
  2. 确认 Workbench 可以运行。
    在这里插入图片描述

将原有的 Accelerator profiles 迁移至 Hardware profiles

OpenShift AI 原先使用 OdhDashboardConfig 对象保存 Workbench notebook 和 ModelServing 可用的 CPU 和内存规格。

$ oc get OdhDashboardConfigs odh-dashboard-config
...
spec:modelServerSizes:- name: Smallresources:limits:cpu: '2'memory: 8Girequests:cpu: '1'memory: 4Gi- name: Mediumresources:limits:cpu: '8'memory: 10Girequests:cpu: '4'memory: 8Gi- name: Largeresources:limits:cpu: '10'memory: 20Girequests:cpu: '6'memory: 16GinotebookSizes:- name: Smallresources:limits:cpu: '2'memory: 8Girequests:cpu: '1'memory: 8Gi- name: Mediumresources:limits:cpu: '6'memory: 24Girequests:cpu: '3'memory: 24Gi- name: Largeresources:limits:cpu: '14'memory: 56Girequests:cpu: '7'memory: 56Gi- name: X Largeresources:limits:cpu: '30'memory: 120Girequests:cpu: '15'memory: 120Gi
...

而 GPU 和节点的对应关系是在 Accelerator profiles 中定义的。
在这里插入图片描述

当为 OpenShift AI 启用新的 Hardware profiles 功能后,在该功能的 Hide legacy profiles 区域可以找到通过 OdhDashboardConfig 和 Accelerator profiles 定义的配置。这些配置可通过 Migrate 菜单迁移到新的 Hardware profiles 中。
在这里插入图片描述

参考

https://ai-on-openshift.io/odh-rhoai/configuration/
https://docs.redhat.com/en/documentation/red_hat_openshift_ai_self-managed/2.22/html/working_with_accelerators/working-with-hardware-profiles_accelerators
https://medium.com/@roeywer/optimized-users-workload-resources-with-openshift-ai-hardware-profiles-22efc018ef9d
https://github.com/rh-aiservices-bu/accelerator-profiles-guide/tree/main
https://blog.csdn.net/weixin_43220532/article/details/111051773

http://www.dtcms.com/a/310401.html

相关文章:

  • 什么是股指期货的不对冲策略?
  • 【Flutter】内存泄漏总结
  • HarmonyOS 应用拉起系列(一):应用与元服务互通方式
  • 哔哩哔哩Android视频编辑页的架构升级
  • 二进制数本身没有默认的有符号或无符号解释
  • Eden 和 Survivor 比例可以调整么,参数是什么?还用到了哪些参数?
  • 数新智能 CTO 原攀峰:DataCyber 面向 AI 时代的多模态数据湖设计与实践
  • MYSQL:JDBC编程
  • C语言笔记4:错题整理
  • QT开发---图形与图像(补充)
  • ZYNQ与MPSoC实战:从Vitis入门到项目开发
  • Java学习-运算符
  • HRM论文解读
  • Windows安装虚拟机遇到内容解码失败
  • 【Django】-2- 处理HTTP请求
  • HTTP客户端实现:深入理解Go的net/http包
  • Vue3 + Vite 项目中 API 代理配置问题分析与解决
  • 如何处理Y2K38问题
  • 驾驶场景安全带识别误检率↓76%:陌讯动态特征聚合算法实战解析
  • 【深度学习①】 | Numpy数组篇
  • 【从0开始学习Java | 第12篇】内部类
  • C语言:冒泡排序
  • VUE:学习路径
  • 机器学习:开启智能时代的钥匙
  • 前端学习日记(十七)
  • Unity3D制作UI动画效果
  • treeshaking,webpack,vite
  • 技术为核,口碑为盾:普瑞眼科成都市场“卷王”地位的形成逻辑
  • Canny边缘检测算法-个人记录
  • 计数组合学7.10(舒尔函数的组合定义)