P-Tuning就是提示调优(Prompt Tuning),主要思想是固定预训练模型的参数,然后在模型的输入端添加可学习的"prompt"(提示)进行调整。这种方法的优点是计算成本低,因为只需要更新少量的参数。它不改变模型,而是通过对提示的优化,让模型输出最佳的结果,相关论文可参考【1】。从原理上讲,是在已训练的模型L的外面再套上一个可训练的模型P,在不改变L的情况下通过优化P,让P(L)最优。因为L的输入实际上就是提示,所以叫提示调优。
提示调优可以通过手动实现(不推荐)也可以通过自动训练实现。
下面举一个简单的例子通过对比来看人们是如何发明提示调优的。
比如我们的任务是情感分析,即给定一段文本,确定其情感是正面还是负面。
传统微调方法:
- 使用一个预训练的语言模型,如GPT。
- 在情感分析的训练数据上进行微调。
- 使用一个线性分类层,根据微调后的模型输出来进行情感分类。
静态提示训练:
- 首先,初始化一个或多个“提示”向量。这些向量可以随机初始化,或者使用一些先验知识来初始化。
- 在每个输入文本前加上一个“提示标记”。例如,我们可以添加一个“[SENTIMENT]”标记,然后紧跟原始文本。如:“[SENTIMENT] This movie is great!”
- 将这些“提示标记”与对应的提示向量关联起来。也就是说,模型在处理输入时,不仅会看到原始文本,还会看到与“[SENTIMENT]”关联的提示向量。
- 在情感分析的训练数据上进行训练。与传统的微调不同,这里我们只更新提示向量,而不更新模型的其他参数(或者只更新很少的参数)。这意味着,我们主要是在调整这些提示向量,使它们能够帮助模型更好地执行情感分类。
- 在测试时,我们依然在每个输入文本前加上“[SENTIMENT]”标记,并使用学到的提示向量来辅助模型进行分类。
提示调优:
- P-tun

最低0.47元/天 解锁文章
7697

被折叠的 条评论
为什么被折叠?



