当前位置: 首页 > news >正文

nlp|微调大语言模型初探索(3),qlora微调deepseek记录

前言

  上篇文章记录了使用lora微调llama-1b,微调成功,但是微调llama-8b显存爆炸,这次尝试使用qlora来尝试微调参数体量更大的大语言模型,看看64G显存的极限在哪里。

1.Why QLora?

  • QLoRA 在模型加载阶段通过 4-bit 量化大幅减少了模型权重的显存占用。
  • QLoRA 通过 反量化到 BF16 进行训练,在保持计算精度的同时,进一步节省显存和提高效率。
  • QLoRA 在加载、训练、以及权重存储等多个方面都进行了优化,从而有效地减少了显存使用。
    总结:比Lora节省显存!!

2.LLaMA-Factory支持模型

在这里插入图片描述
如上图所示,这是LLaMA-Factory所有支持的大语言模型,你可以选择你感兴趣的模型进行微调。
LLaMA-Factory

3.尝试Llama-3.2-3B

  • 下载Llama-3.2-3B-Instruct

相关文章:

  • IP组播基础
  • VSCode自定义快捷键和添加自定义快捷键按键到状态栏
  • **ARM Cortex-M4** 和 **ARM Cortex-M7* 运行freeRTOS
  • Linux系统资源监控:全面掌握目录、文件、内存和硬盘使用情况
  • 如何在本地和服务器新建mysql用户和密码
  • MATLAB学习之旅:数据插值与曲线拟合
  • 【Cadence射频仿真学习笔记】Pcell Designer设计电感学习笔记
  • Java集合框架之List接口详解
  • linux5-多任务--进程fork()
  • 自动化测试中如何高效进行元素定位!
  • 第1章 快速认识线程
  • 人工智能 - 脑机融合:人类脑组织操控机器人,具身智能时代的革命性突破
  • 拥抱健康生活,开启养生之旅
  • 分布式数据库:架构演进、核心挑战与行业落地实践
  • SpringSecurity初始化的本质
  • Stream流简单使用
  • 第三章:前端技术栈与性能关联
  • 设计模式--访问者模式【行为型模式】
  • A000目录
  • 【C】识别一份嵌入式工程文件
  • 做网站需要前置审批/如何做推广引流赚钱
  • 驾校做网站/查看百度关键词价格
  • 甘肃省建设厅官方网站/杭州seo整站优化
  • 深圳好的网站建/市场推广方式有哪几种
  • 教你做文案的网站推荐/百度云盘官网登录入口
  • 网站建设需要哪些人员/seo优化教程培训