当前位置: 首页 > news >正文

LLM最新的模型微调技术有哪些

LLM 最新的模型微调技术有哪些

目录

    • LLM 最新的模型微调技术有哪些
      • 1. QLoRA(Quantized Low-Rank Adaptation)
      • 2. P-Tuning v2
      • 3. LoRA++(增强版 LoRA)
      • 4. AdaLoRA(Adaptive LoRA)
      • 5. BitFit(仅微调偏置)

1. QLoRA(Quantized Low-Rank Adaptation)

  • 原理:QLoRA 结合了低秩自适应(LoRA)和量化技术。在 LoRA 中,通过在模型的某些层插入低秩矩阵来微调模型,而 QLoRA 在此基础上,将预训练模型的权重进行 4 位量化,大大减少了内存占用。同时,它使用双量化(Double Quantization)进一步减少量化常数的存储需求。在训练过程中,只更新 LoRA 的低秩矩阵参数,而量化后的预训练模型权重保持不变。
  • 举例:在微调大语言模型如 LLaMA - 65B 时,传统的全量微调需要大量的显存,可能无法在单张 GPU 上完成。而使用 QLoRA 技术,将模型权重量化为 4 位,同时应用 LoRA 进行微调,显著降低了显存需求,使得在单张 A100 GPU 上就可以完成对 LLaMA - 65B 的微调。

2. P-Tuning v2

  • 原理</

相关文章:

  • c语言闯算法--常用技巧
  • LINUX 指令大全
  • 养生,点亮健康生活
  • 监听新打开窗口的关闭情况和iframe内系统的url改变情况
  • 如何用“几何产品规范”让齿轮测量更精准?
  • 如何选择适合您智能家居解决方案的通信协议?
  • Spring Boot 项目部署启动异常问题分析与解决​:主类缺失与依赖冲突的分析
  • Java 集合框架:数据管理的强大工具
  • vue知识点(4)
  • STM32F407 定时器
  • 第九课:异步爬虫进阶:aiohttp与多线程的技术博客
  • 【Java 和 Scala】-- Java 与 Scala 的 Assert 断言对比
  • AI Agent系列(四) -Agent架构认知
  • 【ODHead】BEVDet的 CenterHead的推理和拓展到蒸馏损失的算法细节
  • java后端开发day31--集合进阶(一)-----Collection集合List集合数据结构1
  • Hive SQL 精进系列:字符串拼接的三种常用方式
  • 【WRF-Chem】预处理工具(Preprocessors)总结
  • es-索引详解
  • 论文笔记 - ULTRA-SPARSE MEMORY NETWORK
  • 解决:外部调用存储过程时突然变慢,但是在sql server运行很快
  • 2025年度上海市住房城乡建设管理委工程系列中级职称评审工作启动
  • 中日有关部门就日本水产品输华问进行第三次谈判,外交部回应
  • 悬疑推理联合书单|虫神山事件
  • 壹基金发布2024年度报告,公益项目惠及937万人次
  • 中俄元首今年首次面对面会谈,达成哪些新的重要共识?
  • 进化版大巴黎通杀英超,那个男人后悔了吗