自监督学习任务中,将预训练模型转移到下游任务时,通常需要进行fine-tuning。
常见的方法有两种:
-
full fine-tuning(更新所有模型参数),具体来说,冻结预训练模型的部分卷积层(通常是靠近输入的多数卷积层,因为这些层保留了大量底层信息)甚至不冻结任何网络层,训练剩下的卷积层(通常是靠近输出的部分卷积层)和全连接层
-
linear probing (只更新最后一个linear layer参数),具体来说,训练后,要评价模型的好坏,通过将最后的一层替换成线性层。 预训练模型的表征层的特征固定,参数固化后未发生改变,只通过监督数据去训练分类器(通常是Softmax分类器或者SVM分类器等等)。只训练这个线性层就是linear probe。
本文探讨了自监督学习中预训练模型应用于下游任务的两种常见方法:full fine-tuning和linear probing。full fine-tuning涉及更新所有模型参数,有时会冻结部分卷积层;而linear probing则仅更新最后一层线性层,保持预训练模型的特征层不变,通过监督数据训练分类器。这两种策略在模型微调和性能优化中扮演重要角色。
1055

被折叠的 条评论
为什么被折叠?



