当前位置: 首页 > news >正文

大模型面试高频考点-显存占用

目录

1.训练阶段

2.推理阶段


如何根据大模型的参数,来计算其在训练和推理阶段显存占用大小呢?

基础知识:

1个字节(byte),占8位(bit)。

全精度fp32, 就是32位,占4个(32/8=4)字节(byte)。

半精度FP16/BF16, 就是16位,占2个(16/8=2)字节(byte)。

int8, 就是8位,占1个(8/8=1)字节(byte)。

1.训练阶段

综上,int8 精度的 LlaMa-7B 模型,训练阶段大致需要的内存:

7GB+7GB+ 14GB+ 1.3GB+ 5.25 GB= 34.55GB左右

2.推理阶段

float32 精度的 LlaMa-7B 模型,推理阶段大致需要的内存:

3.725*7+21GB=47.075 GB

http://www.dtcms.com/a/73448.html

相关文章:

  • QoS 技术详解:原理、应用与配置实践
  • Java中,`Thread`类的`sleep`方法使用整理
  • 日语学习-日语知识点小记-构建基础-JLPT-N4N5阶段(23):たら ても
  • 如果etc里的文件缺失,或者etc被删除了导致无法正常启动该怎么做?
  • python-leetcode 54.全排列
  • 详细解释javascript的GO对象和AO对象
  • pandas学习笔记(一)——基础知识和应用案例
  • PixelCLIP
  • 系统思考:恶性循环
  • 万字面试题助力春招(待补充)
  • Node.js中SerialPort(串口)模块使用详解
  • Spring 原生启动过程
  • 高数1.5 极限的运算法则
  • Tree of Thought Prompting(思维树提示)
  • Android的消息机制
  • 激光雷达“开卷”2.0,头部Tier1入局
  • 图神经网络学习笔记-图神经网络可解释性应用详解(专题二十二)
  • 算法-除自身以外数组的乘积
  • pfsense部署二(ips基本使用)
  • 高精度加法,高精度乘法,高精度除法,高精度减法,链表相加
  • `FisherTrainer` 的自定义 `Trainer` 类:累积梯度的平方并求平均来近似计算 Fisher 信息矩阵
  • Java中的GC是什么?
  • OpenWebUI:一站式 AI 应用构建平台体验
  • 【Leetcode】234. 回文链表
  • 调和Django与Sql server2019的关系
  • 【工具】huggingface 模型下载过程
  • Redis主从集群和哨兵集群
  • Go语言的负载均衡
  • 电子病历系统如何设计?
  • MySQL 性能优化:索引优化 + 读写分离 + Redis 缓存,TPS 提升 175% 实战解析