[论文学习]P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Task

P-Tuning V2是一种Prompt Tuning方法,在不同规模和任务中都能与微调媲美。该方法通过优化Prefix Tuning并应用于NLU任务,解决了序列标注等复杂问题。仅需调整0.1%参数量即可在多种模型规模上达到与微调相当的效果。

[论文学习]P-Tuning V2

P-Tuning v2: Prompt Tuning Can Be Comparable to Fine-tuning Universally Across Scales and Tasks

P-Tuning v2一种在不同规模和任务中都可与微调相媲美的Prompt-Tuning方法,但并不是一个全新的方法,将文本生成的Prefix-Tuning优化并适应到NLU任务中,成为一个跨规模和NLU任务的

动机

  1. 模型通用性:以前关于Prompt-Tuning的工作(或者说是P-Tuning v1)在正常大小的预训练模型中表现不够理想,100亿以上的参数量的预训练模型打败Fine-Tuning

  2. 任务通用性:现在的Prompt-Tuning不能很好地处理序列标注任务

    首先,序列标注需要预测一连串的标签,而不是单一的标签。其次,序列标注通常预测的是无实际意义的标签,这对于将其转化为有效的verbalizers来说可能是个挑战

    为了解决这两个问题,提出P-Tuning V2

方法

施法前摇
前缀微调

​ 前缀微调(Li and Liang, 2021)最初是为自然语言生成(NLG)任务提出的,由[Prefix, x, y]三部分构成,Prefix为前缀,x为输入,y为输出。Prefix-tuning将预训练参数固定,Prefix参数进行微调:不仅只在embedding上进行微调,也在TransFormer上的embedding输入每一层进行微调。

​ 假设我们有自回归模型GPT(transformer的结构,12层),让z = [x;y],聚合x和y,XidxX_{idx}Xidx是x的索引,idx_{idx}idx是y的索引,hi(j)h_i(j)hi(j)是transformer第j步的输出,hi=[hi(1),...,hi(n)]h_i = [h_i(1),...,h_i(n)]hi=[hi(1),...,h

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

simpsun

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值