当前位置: 首页 > news >正文

如何选择适合自己电脑的本地部署模型,模型的大小与b之间的关系,模型参数,量化Q

FP32 LLM   4字节/参数

FP16 LLM   2字节/参数

INT4       0.5字节/参数

无论原始模型是FP32还是FP16,用INT4量化后都是0.5字节/参数

1B=10亿参数,用FP32模型,10亿字节为1GB,1B为4GB

GPU不仅要容纳模型本身大小,还要存储中间结果梯度梯度等等,需要额外空间20%~50%

1B->4GB->4*1.2~1.5=4.8GB~6GB

Deepseek 14B LLM模型大小计算:

14B-> 140*4/10*1.2~1.5=67.2GB~84GB

参与量化后,14B->140*4/10/8*1.1*1.2~1.5(量化后为原八分之一大小,然后还有一部分源数据,所以乘以1.1)=8.4GB~10.5GB

http://www.dtcms.com/a/33746.html

相关文章:

  • 嵌入式之内存管理
  • 【Git】多人协作
  • 【c++】【线程池】线程池模式
  • Python常见面试题的详解16
  • DeepSeek掘金——基于DeepSeek-R1构建文档问答机器人
  • C 语言文件操作
  • Seata1.5.2学习(二)——使用分布式事务锁@GlobalLock
  • 微信小程序 - 页面跳转(wx.navigateTo、wx.redirectTo、wx.switchTab、wx.reLaunch)
  • Python--函数入门
  • Docker 网络详解
  • 正则表达式--元字符-特殊符号(5)
  • vue+element-plus简洁完美实现淘宝网站模板
  • 【STM32】内存管理
  • UE_C++ —— Delegates
  • 网络安全营运周报
  • 【Linux系统编程】网络编程
  • 机器学习数学通关指南——拉格朗日乘子法
  • 汽水分离器 酿酒不锈钢碳钢蒸汽发生器锅炉空气旋风式油水分离器
  • Python----数据分析(Numpy一:numpy库简介,与list列表的区别,数组的创建,随机数组的创建)
  • 一、初始爬虫
  • 基于数据可视化学习的卡路里消耗预测分析
  • VisActor/VTable - 快速搭建表格
  • 【HeadFirst系列之HeadFirst设计模式】第10天之迭代器与组合模式:遍历与管理的艺术
  • 【C语言】第七期——字符数组、字符串、类型转换
  • JavaScript函数-arguments的使用
  • Kafka安装
  • 抽象类的好处
  • vue3学习2
  • 加密数据的模糊查询
  • BY组态:开启工业智能化的未来之钥