当前位置: 首页 > news >正文

如何选择适合自己电脑的本地部署模型,模型的大小与b之间的关系,模型参数,量化Q

FP32 LLM   4字节/参数

FP16 LLM   2字节/参数

INT4       0.5字节/参数

无论原始模型是FP32还是FP16,用INT4量化后都是0.5字节/参数

1B=10亿参数,用FP32模型,10亿字节为1GB,1B为4GB

GPU不仅要容纳模型本身大小,还要存储中间结果梯度梯度等等,需要额外空间20%~50%

1B->4GB->4*1.2~1.5=4.8GB~6GB

Deepseek 14B LLM模型大小计算:

14B-> 140*4/10*1.2~1.5=67.2GB~84GB

参与量化后,14B->140*4/10/8*1.1*1.2~1.5(量化后为原八分之一大小,然后还有一部分源数据,所以乘以1.1)=8.4GB~10.5GB

相关文章:

  • 嵌入式之内存管理
  • 【Git】多人协作
  • 【c++】【线程池】线程池模式
  • Python常见面试题的详解16
  • DeepSeek掘金——基于DeepSeek-R1构建文档问答机器人
  • C 语言文件操作
  • Seata1.5.2学习(二)——使用分布式事务锁@GlobalLock
  • 微信小程序 - 页面跳转(wx.navigateTo、wx.redirectTo、wx.switchTab、wx.reLaunch)
  • Python--函数入门
  • Docker 网络详解
  • 正则表达式--元字符-特殊符号(5)
  • vue+element-plus简洁完美实现淘宝网站模板
  • 【STM32】内存管理
  • UE_C++ —— Delegates
  • 网络安全营运周报
  • 【Linux系统编程】网络编程
  • 机器学习数学通关指南——拉格朗日乘子法
  • 汽水分离器 酿酒不锈钢碳钢蒸汽发生器锅炉空气旋风式油水分离器
  • Python----数据分析(Numpy一:numpy库简介,与list列表的区别,数组的创建,随机数组的创建)
  • 一、初始爬虫
  • 页游网站如何做推广/如何推销自己的产品
  • 什么网站可以做直播/建网站找谁
  • 购物网站开发案例教程/电子商务seo名词解释
  • 建设网站需要学什么程序/网站优化推广招聘
  • wordpress显示代码/aso优化重要吗
  • 阿里巴巴上做网站要多少钱/最新热点新闻