当前位置: 首页 > news >正文

nlp|微调大语言模型初探索(3),qlora微调deepseek记录

前言

  上篇文章记录了使用lora微调llama-1b,微调成功,但是微调llama-8b显存爆炸,这次尝试使用qlora来尝试微调参数体量更大的大语言模型,看看64G显存的极限在哪里。

1.Why QLora?

  • QLoRA 在模型加载阶段通过 4-bit 量化大幅减少了模型权重的显存占用。
  • QLoRA 通过 反量化到 BF16 进行训练,在保持计算精度的同时,进一步节省显存和提高效率。
  • QLoRA 在加载、训练、以及权重存储等多个方面都进行了优化,从而有效地减少了显存使用。
    总结:比Lora节省显存!!

2.LLaMA-Factory支持模型

在这里插入图片描述
如上图所示,这是LLaMA-Factory所有支持的大语言模型,你可以选择你感兴趣的模型进行微调。
LLaMA-Factory

3.尝试Llama-3.2-3B

  • 下载Llama-3.2-3B-Instruct

http://www.dtcms.com/a/29441.html

相关文章:

  • IP组播基础
  • VSCode自定义快捷键和添加自定义快捷键按键到状态栏
  • **ARM Cortex-M4** 和 **ARM Cortex-M7* 运行freeRTOS
  • Linux系统资源监控:全面掌握目录、文件、内存和硬盘使用情况
  • 如何在本地和服务器新建mysql用户和密码
  • MATLAB学习之旅:数据插值与曲线拟合
  • 【Cadence射频仿真学习笔记】Pcell Designer设计电感学习笔记
  • Java集合框架之List接口详解
  • linux5-多任务--进程fork()
  • 自动化测试中如何高效进行元素定位!
  • 第1章 快速认识线程
  • 人工智能 - 脑机融合:人类脑组织操控机器人,具身智能时代的革命性突破
  • 拥抱健康生活,开启养生之旅
  • 分布式数据库:架构演进、核心挑战与行业落地实践
  • SpringSecurity初始化的本质
  • Stream流简单使用
  • 第三章:前端技术栈与性能关联
  • 设计模式--访问者模式【行为型模式】
  • A000目录
  • 【C】识别一份嵌入式工程文件
  • Qt 保留小数点 固定长度 QString 格式化
  • npm在install时提示要安装python问题处理
  • python:多重继承、MRO(方法解析顺序)
  • [问题处理]BCLinux您的授权码是无效的,请获得正确授权码
  • 从传统到轻量级5G:网络架构演变与优化路径
  • 讯飞唤醒+VOSK语音识别+DEEPSEEK大模型+讯飞离线合成实现纯离线大模型智能语音问答。
  • C++笔记之标准库中的std::copy 和 std::assign 作用于 std::vector
  • mongoose和lwip有啥区别
  • 基于SpringBoot+Vue癌症患者交流平台的设计与实现
  • MYSQL的binlog有几种格式分别有什么区别