避免了全模型微调带来的计算资源浪费,同时也克服了Few-Shot Learning的上下文长度限制。
Prompt-Tuning是一种利用提示(prompt)来指导模型生成特定类型输出的方法(包括:硬提示:PET,软提示:Prompt Tuning和P-Tuning)
PEFT是一种使用前缀向量来进行微调的方法,前缀向量被添加到模型的输入中,用于调整模型的输出以适应特定任务。只有前缀向量被更新,模型主体的参数保持不变。(包括:Prefix-Tuning,Adapter-Tuning,LoRA)PEFT 方法仅微调少量或额外的模型参数,固定大部分预训练参数,大大降低了计算和存储成本,同时最先进的 PEFT 技术也能实现了与全量微调相当的性能。
1,Prompt Tuning
1)适合自然语言生成的任务,基于T5模型(seq2seq结构)来做的
2)为每一个任务额外添加一个或多个embedding-——>将这些embedding和文本一起输入到大语言模型中——>只训练这些embedding的表征参数,不改模型的参数
3)embedding可以是随机初始化,也可以是预训练模型中已有的词作为这个伪标记的初始化,还可以是标签词对应的embedding为初始化
2,P-Tuning
1)适合自然语言理解任务
2)根据任务随机初始化一组提示词向量(伪标记,模型输入的一部分,会加入一些可以代表句子语义的一些词一起初始化)——>这些向量通过一层Bi-LSTM+两个前馈神经网络组成的Prompt Encoder转为新的嵌入向量(更加适应特定任务的需求)——&g