最近在看刘鹏飞写的关于prompt的综述,论文太长了。。 只能看一部分记录一部分笔记,离散的prompt理解起来较容易,所以重点记录一下关于continuous prompt的笔记,P-tuning v2也提到了之前一些论文的工作,所以今天记录下这篇论文相关的笔记,提到之前论文中的部分也大概写写。
论文地址
https://arxiv.org/pdf/2110.07602.pdfarxiv.org/pdf/2110.07602.pdf
1. Abstract
Prompt tuning是之前其他论文提出的一种方法,通过冻结语言模型仅去调整连续的prompts,在参数量超过10B的模型上,效果追上了fine-tune,但是在normal-sized模型上表现不好,并且无法解决序列标注任务。针对这两个问题,作者提出了P-tuning v2。
2. Related work
这篇论文跟之前的prompt tuning, prefix tuning 和p-tuning