DoRA详解:从LoRA到权重分解的进化

DoRA​​是一种用于​​大语言模型(LLM)微调​​的技术,全称为 ​​"Weight-Decomposed Low-Rank Adaptation"​​(权重分解的低秩自适应)。它是对现有微调方法(如 ​​LoRA​​)的改进,旨在更高效地调整模型参数,同时减少计算资源消耗。

论文链接:https://arxiv.org/pdf/2402.09353

​1. 概括​

  • 核心思想​​:DoRA 通过​​分解预训练模型的权重矩阵​​,将其拆分为​​幅度(magnitude)​​和​​方向(direction)​​两部分,分别进行低秩(low-rank)调整。这种分解方式能更精细地控制参数更新,提升微调效果。

  • ​与 LoRA 的关系​​:

    • ​LoRA(Low-Rank Adaptation)​​:通过在原始权重旁添加低秩矩阵(而非直接修改权重)来微调模型,减少参数量。

    • ​DoRA​​:在 LoRA 基础上引入​​权重分解​​,进一步优化参数更新的方向和幅度,提高训练稳定性。

​2. 详解

overview of DoRA

 

1. 权重矩阵分解

输入与目标​

  • ​输入​​:预训练权重矩阵 W_0\in \mathbb{R}^{d\times d}(蓝色矩形)。
  • 目标​​:将 W_0分解为​​幅度(Magnitude) m 和​​方向(Direction) V

✅分解操作

1.1 计算幅度m

m=\left \| W_0 \right \|_c\in \mathbb{R}^{d\times d}

  • \left \| \cdot \right \|_c​表示矩阵的 ​​C范数​​(具体可能是列范数或Frobenius范数,需根据上下文确定)。

  • 幅度 m 是标量或对角矩阵(图中浅绿色矩形),表示权重的整体缩放因子。

1.2 计算方向V

 

V=\frac{W_0}{\left \| W_0 \right \|_c}\in \mathbb{R}^{d\times d}

  • 方向V(浅黄色矩形)是归一化后的权重矩阵,保留原始权重的“方向”信息。

1.3 验证分解​

  • 重构公式:

    W_0=m\cdot \frac{V}{\left \| V \right \|}_c=\left \| W_0 \right \|_c\cdot \frac{W_0}{\left \| W_0 \right \|}_c
    
  • 说明:分解后可通过幅度和方向重新组合得到原始权重,确保数学等价性。

  • V的范数 \left \| V \right \|_c=1(单位范数)。

2. 微调训练

2.1 方向矩阵V的低秩适应(LoRA)

  • 低秩分解​
    • 对方向矩阵V应用标准 LoRA:
      • \bigtriangleup V=BA\in \mathbb{R}^{d\times d}
      • 其中A\in \mathbb{R}^{d \times r},B\in \mathbb{R}^{r\times d}, r\ll d
    • A和 B是​​可训练的低秩矩阵​​(绿色矩形),r为秩(超参数)。
  • ​更新方向矩阵​
    • 微调后的方向矩阵:
      • V'=V+\bigtriangleup V=V+BA

​2.2 幅度m的训练​

  • 幅度m直接作为​​可训练参数​​(绿色矩形),通过梯度下降调整。

    • W'=m\cdot \frac{V}{\left \| V \right \|_c}=m\cdot \frac{V+BA}{\left \| V+BA \right \|_c}
    • 通过归一化确保方向矩阵的单位性。
  • ​可训练参数​​:

    • 低秩矩阵 A、B(方向调整)。

    • 幅度 m(全局缩放调整)。

  • ​冻结参数​​:

    • 原始方向 V(仅用于初始化,不更新)。

3. 代码

伪代码如下

import torch
import torch.nn as nn

class DoRALayer(nn.Module):
  def __init__(self, d, r):
      super().__init__()
      # 初始化预训练权重 W0
      self.W0 = nn.Parameter(torch.randn(d, d))

      # 分解为幅度和方向
      self.m = nn.Parameter(torch.norm(self.W0, dim=0))  # 幅度(可训练)
      self.V = self.W0 / torch.norm(self.W0, dim=0)      # 方向(冻结)

      # LoRA 参数
      self.A = nn.Parameter(torch.randn(d, r))
      self.B = nn.Parameter(torch.zeros(r, d))

  def forward(self, x):
      V_prime = self.V + torch.matmul(self.B, self.A)  # V + BA
      V_prime_norm = torch.norm(V_prime, dim=0)
      W_prime = self.m * (V_prime / V_prime_norm)       # 合并权重
      return torch.matmul(x, W_prime.T)

4. 总结​

DoRA 的核心是通过​​权重分解 + 低秩适应​​,实现对预训练模型更精细的微调。其操作流程清晰分为两步:

  1. ​分解​​:提取权重的幅度和方向。

  2. ​微调​​:用 LoRA 调整方向,独立训练幅度。

    这种方法在保持参数效率的同时,提升了模型微调的灵活性和性能。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

TalkU浩克

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值