当前位置: 首页 > news >正文

大模型面试高频考点-显存占用

目录

1.训练阶段

2.推理阶段


如何根据大模型的参数,来计算其在训练和推理阶段显存占用大小呢?

基础知识:

1个字节(byte),占8位(bit)。

全精度fp32, 就是32位,占4个(32/8=4)字节(byte)。

半精度FP16/BF16, 就是16位,占2个(16/8=2)字节(byte)。

int8, 就是8位,占1个(8/8=1)字节(byte)。

1.训练阶段

综上,int8 精度的 LlaMa-7B 模型,训练阶段大致需要的内存:

7GB+7GB+ 14GB+ 1.3GB+ 5.25 GB= 34.55GB左右

2.推理阶段

float32 精度的 LlaMa-7B 模型,推理阶段大致需要的内存:

3.725*7+21GB=47.075 GB

相关文章:

  • QoS 技术详解:原理、应用与配置实践
  • Java中,`Thread`类的`sleep`方法使用整理
  • 日语学习-日语知识点小记-构建基础-JLPT-N4N5阶段(23):たら ても
  • 如果etc里的文件缺失,或者etc被删除了导致无法正常启动该怎么做?
  • python-leetcode 54.全排列
  • 详细解释javascript的GO对象和AO对象
  • pandas学习笔记(一)——基础知识和应用案例
  • PixelCLIP
  • 系统思考:恶性循环
  • 万字面试题助力春招(待补充)
  • Node.js中SerialPort(串口)模块使用详解
  • Spring 原生启动过程
  • 高数1.5 极限的运算法则
  • Tree of Thought Prompting(思维树提示)
  • Android的消息机制
  • 激光雷达“开卷”2.0,头部Tier1入局
  • 图神经网络学习笔记-图神经网络可解释性应用详解(专题二十二)
  • 算法-除自身以外数组的乘积
  • pfsense部署二(ips基本使用)
  • 高精度加法,高精度乘法,高精度除法,高精度减法,链表相加
  • 国宝文物子弹库帛书二、三卷从美启程,18日凌晨抵京
  • 全国林业院校校长论坛举行,聚焦林业教育的创新与突破
  • 特朗普政府涉税改法案遭众议院预算委员会否决
  • 刘国中将出席第78届世界卫生大会并顺访瑞士、访问白俄罗斯
  • 新片|《碟中谍8:最终清算》定档5月30日
  • 网易一季度净利增长三成,丁磊:高度重视海外游戏市场