当前位置: 首页 > news >正文

DoRA详解:从LoRA到权重分解的进化

DoRA​​是一种用于​​大语言模型(LLM)微调​​的技术,全称为 ​​"Weight-Decomposed Low-Rank Adaptation"​​(权重分解的低秩自适应)。它是对现有微调方法(如 ​​LoRA​​)的改进,旨在更高效地调整模型参数,同时减少计算资源消耗。

论文链接:https://arxiv.org/pdf/2402.09353

​1. 概括​

​2. 详解

overview of DoRA

  • 核心思想​​:DoRA 通过​​分解预训练模型的权重矩阵​​,将其拆分为​​幅度(magnitude)​​和​​方向(direction)​​两部分,分别进行低秩(low-rank)调整。这种分解方式能更精细地控制参数更新,提升微调效果。

  • ​与 LoRA 的关系​​:

    • ​LoRA(Low-Rank Adaptation)​​:通过在原始权重旁添加低秩矩阵(而非直接修改权重)来微调模型,减少参数量。

    • ​DoRA​​:在 LoRA 基础上引入​​权重分解​​,进一步优化参数更新的方向和幅度,提高训练稳定性。

1. 权重矩阵分解

输入与目标​

  • ​输入​​:预训练权重矩阵 W_0\in \mathbb{R}^{d\times d}(蓝色矩形)。
  • 目标​​:将 W_0分解为​​幅度(Magnitude) m 和​​方向(Direction) V

✅分解操作

1.1 计算幅度m

m=\left \| W_0 \right \|_c\in \mathbb{R}^{d\times d}

  • \left \| \cdot \right \|_c​表示矩阵的 ​​C范数​​(具体可能是列范数或Frobenius范数,需根据上下文确定)。

  • 幅度 m 是标量或对角矩阵(图中浅绿色矩形),表示权重的整体缩放因子。

1.2 计算方向V

 

V=\frac{W_0}{\left \| W_0 \right \|_c}\in \mathbb{R}^{d\times d}

  • 方向V(浅黄色矩形)是归一化后的权重矩阵,保留原始权重的“方向”信息。

1.3 验证分解​

  • 重构公式:

    W_0=m\cdot \frac{V}{\left \| V \right \|}_c=\left \| W_0 \right \|_c\cdot \frac{W_0}{\left \| W_0 \right \|}_c
    
  • 说明:分解后可通过幅度和方向重新组合得到原始权重,确保数学等价性。

  • V的范数 \left \| V \right \|_c=1(单位范数)。

2. 微调训练

2.1 方向矩阵V的低秩适应(LoRA)

  • 低秩分解​
    • 对方向矩阵V应用标准 LoRA:
      • \bigtriangleup V=BA\in \mathbb{R}^{d\times d}
      • 其中A\in \mathbb{R}^{d \times r},B\in \mathbb{R}^{r\times d}, r\ll d
    • A和 B是​​可训练的低秩矩阵​​(绿色矩形),r为秩(超参数)。
  • ​更新方向矩阵​
    • 微调后的方向矩阵:
      • V'=V+\bigtriangleup V=V+BA

​2.2 幅度m的训练​

  • 幅度m直接作为​​可训练参数​​(绿色矩形),通过梯度下降调整。

    • W'=m\cdot \frac{V}{\left \| V \right \|_c}=m\cdot \frac{V+BA}{\left \| V+BA \right \|_c}
    • 通过归一化确保方向矩阵的单位性。
  • ​可训练参数​​:

    • 低秩矩阵 A、B(方向调整)。

    • 幅度 m(全局缩放调整)。

  • ​冻结参数​​:

    • 原始方向 V(仅用于初始化,不更新)。

3. 代码

伪代码如下

import torch
import torch.nn as nnclass DoRALayer(nn.Module):def __init__(self, d, r):super().__init__()# 初始化预训练权重 W0self.W0 = nn.Parameter(torch.randn(d, d))# 分解为幅度和方向self.m = nn.Parameter(torch.norm(self.W0, dim=0))  # 幅度(可训练)self.V = self.W0 / torch.norm(self.W0, dim=0)      # 方向(冻结)# LoRA 参数self.A = nn.Parameter(torch.randn(d, r))self.B = nn.Parameter(torch.zeros(r, d))def forward(self, x):V_prime = self.V + torch.matmul(self.B, self.A)  # V + BAV_prime_norm = torch.norm(V_prime, dim=0)W_prime = self.m * (V_prime / V_prime_norm)       # 合并权重return torch.matmul(x, W_prime.T)

4. 总结​

DoRA 的核心是通过​​权重分解 + 低秩适应​​,实现对预训练模型更精细的微调。其操作流程清晰分为两步:

  1. ​分解​​:提取权重的幅度和方向。

  2. ​微调​​:用 LoRA 调整方向,独立训练幅度。

    这种方法在保持参数效率的同时,提升了模型微调的灵活性和性能。

 

http://www.dtcms.com/a/308364.html

相关文章:

  • Redis线程模型讨论
  • 修改VSCode远程SSH的PATH
  • JVM字节码文件结构剖析
  • JVM学习日记(十二)Day12
  • 解释 MySQL 中的 EXPLAIN 命令的作用和使用场景
  • 格雷希尔G25F系列电气端口快速封堵接头,解决电池包、电机控制器等壳体的气密性测试难题,提升效率与可靠性,助力新能源汽车生产。
  • ARM--中断
  • 三坐标测量仪攻克深孔检测!破解新能源汽车阀体阀孔测量难题
  • 雷霆战机游戏代码
  • ABS系统专用磁阻式汽车轮速传感器
  • 建设公司如何优化梳理部门职责,提高运作效率?
  • 中烟创新自研【烟草行政许可文书制作系统】纳入“北京市人工智能赋能行业发展典型案例集”
  • 电子电气架构 --- 车载48V系统
  • 如何导入json文件到数据库
  • 生信技能76 - 根据SNP列表提取SNP位点上下游的参考基因组fasta
  • RocksDB关键设计详解
  • MySQL 45讲 16-17
  • 【Linux网络编程】网络层协议 - IP
  • 大模型微调工具LLaMA-Factory的安装流程
  • Git Pull 时遇到 Apply 和 Abort 选项?详解它们的含义与应对策略
  • sqli-labs:Less-16关卡详细解析
  • 数字通信原理--数字通信仿真基础
  • 基于C++的protobuf协议使用(四)项目应用与总结
  • 学以致用——用Docker搭建ThinkPHP开发环境
  • freesurfer处理图谱和被试的脑模版对齐的操作
  • realm数据库RealmObject的作用
  • 电子电气架构 --- 车载48V系统开辟全新道路
  • 神奇的数据跳变
  • 【实战教程】Nginx 全方位拦截 Web 常见攻击(含目录遍历、SQL 注入等)
  • Spire.XLS for .NET 中, 将 Excel 转换为 PDF 时, 如何设置纸张大小为A4纸,并将excel内容分页放置?