然后我们再来看一下,轻量化微调,这个过程,我们微调fine-tunning的过程很相似,
这里再说一遍:
1.首先加载我们的训练数据集,然后对数据进行处理,主要是对数据按特定的个数,拼接输入输出,训练数据主要包含,问题和答案,
2.然后把我们拼接好的训练数据,的文本转换成token ids, 注意 后面的数据规整器就是用来 对数据进行分批处理的,把数据按照batchsize进行划分
3.然后,再去加载tokenizer,对token进行序列化处理,然后,再去
4.加载模型 右边的部分就是训练器训练的过程
5.然后这里多了一块,就是注入参数,注意这里加载模型后,模型原来的参数都是冻结的,在训练过程中是不动的.
6.然后再定义和训练超参数.
然后我们再来看一下这个Prompt Tuning,这个轻量化微调的原理,可以看到
其实就是在他就是在X部分,注意这个X不分,其实就是我们对大模型提问的语句,生成的词向量矩阵,然后,现在我们做的就是
在这个我们的提问句对应的词向量矩阵X的前面,添加了几个P1 P2