当前位置: 首页 > news >正文

LLaMA-Factory|微调大语言模型初探索(3),qlora微调deepseek记录

前言

  上篇文章记录了使用lora微调llama-1b,微调成功,但是微调llama-8b显存爆炸,这次尝试使用qlora来尝试微调参数体量更大的大语言模型,看看64G显存的极限在哪里。

1.Why QLora?

  • QLoRA 在模型加载阶段通过 4-bit 量化大幅减少了模型权重的显存占用。
  • QLoRA 通过 反量化到 BF16 进行训练,在保持计算精度的同时,进一步节省显存和提高效率。
  • QLoRA 在加载、训练、以及权重存储等多个方面都进行了优化,从而有效地减少了显存使用。
    总结:比Lora节省显存!!

2.LLaMA-Factory支持模型

在这里插入图片描述
如上图所示,这是LLaMA-Factory所有支持的大语言模型,你可以选择你感兴趣的模型进行微调。
LLaMA-Factory

3.尝试Llama-3.2-3B

  • 下载Llama-3.2-3B-Instruct

http://www.dtcms.com/a/31396.html

相关文章:

  • qt:输入控件操作
  • 从0-1搭建mac环境最新版
  • Freertos学习第一篇-总体概述
  • springboot三层架构详细讲解
  • 输入搜索、分组展示选项、下拉选取,全局跳转页,el-select 实现 —— 后端数据处理代码,抛砖引玉展思路
  • Java之——“String类”(内容较多,结合目录察看分类)
  • CSS Grid 布局学习笔记
  • Android 之 AIDL for HAL
  • qt-C++笔记之创建和初始化 `QGraphicsScene` 和 `QGraphicsView` 并关联视图和场景的方法
  • React进阶之前端业务Hooks库(一)
  • 基于Spring Boot的RabbitMQ延时队列技术实现
  • 服务器Docker OOM RSS高问题排查思路
  • OLAPOLTP介绍及应用
  • 软件测试:1、单元测试
  • el-table已经选中的项,通过selectable属性不可以再次选择
  • 对接扣子双向流式 TTS Demo
  • 跟着AI学vue第七章
  • TypeScript - 数据类型 - 声明变量
  • Linux中进程的状态3 进程的优先级1
  • 除掉彩色水印的简单方法
  • GlusterFS卷管理实战指南:从扩展卷到自我修复,全面掌握高效运维技巧
  • Kafka在Windows系统使用delete命令删除Topic时出现的问题
  • 【Java八股文】09-计算机操作系统面试篇
  • 虚拟机设置代理
  • VMamba论文精读笔记
  • CMake管理依赖实战:多仓库的无缝集成
  • 在windows下安装windows+Ubuntu16.04双系统(下)
  • go WEB框架
  • Git 合并冲突解决与状态分析笔记
  • 发现问题 python3.6.13+django3.2.5 只能以asgi启动server 如何解决当前问题