LoRA 缩放因子(lora_alpha)的作用原理 目录 LoRA 缩放因子(`lora_alpha`)的作用原理 举例说明 场景假设 不同缩放因子的影响 情况一: α = 1 \alpha = 1 α=1 情况二: α = 10 \alpha = 10 α=10 结论 在 LoRA(Low-Rank Adaptation)方法中,主要是对预训练模型的权重矩阵进行低秩分解,以减少可训练参数的数量。假设原始的权重矩阵为 W W W,在 LoRA 中,权重矩阵的更新可以表示为: W n e w = W + α r B A W_{new} = W + \frac{\alpha}{r}BA