自然语言处理:第四十九章 LORA面经



写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

写在前面: 笔者更新不易,希望走过路过点个关注和赞,笔芯!!!

大家的显卡都比较吃紧,LoRA家族越来越壮大,基于LoRA出现了各种各样的改进,最近比较火的一个改进版是dora,听大家反馈口碑也不错。

基于PEFT的话用4090 24G显存也可以进行大模型的微调,所以LoRA家族这块还是很有研究和实际落地的潜力。

LoRA整个系列分为两个部分:

1、LoRA总述

2、LoRA家族演进

本篇开始介绍第一部分:LoRA总述,尽量以面经问题的形式提出并解答,下面是一个快捷目录。

一、概念

  1. 简单介绍一下LoRA
  2. LoRA的思路
  3. LoRA的特点
  4. LoRA的优点
  5. LoRA的缺点

二、训练理论

  1. LoRA权重是否可以合入原模型?
  2. ChatGLM-6B LoRA后的权重多大?
  3. LoRA微调方法为啥能加速训练?
  4. 如何在已有LoRA模型上继续训练?
  5. LoRA这种微调方法和全参数比起来有什么劣势吗?
  6. LORA应该作用于Transformer的哪个参数矩阵?
  7. LoRA 微调参数量怎么确定?
  8. Rank 如何选取?
  9. alpha参数 如何选取?
  10. LoRA 高效微调如何避免过拟合?
  11. 哪些因素会影响内存使用?
  12. LoRA权重是否可以合并?
  13. 是否可以逐层调整LoRA的最优rank?
  14. Lora的矩阵怎么初始化?为什么要初始化为全0?</
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

曼城周杰伦

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值