MMPreTrain
MMPreTrain算法库介绍
算法库与任务组成
MMPreTrain是源自MMClassification和MMSelfSup的一个全新升级的预训练算法框架,能够提供各种强大的预训练主干网络。目前,预训练阶段对于视觉任务至关重要,凭借丰富而强大的预训练模型,能够对各种下游任务进行改进。


在MMPreTrain中,包含了很多内容,有主流的backbone模型,如VGG、ResNet,还有轻量化的MobileNet等。也有自监督学习算法MoCo等,还有多模态算法CLIP等。同时也提供了各类数据集,例如COCO、ImageNet,也有多模态的数据集ScienceQA等,还有训练技巧与策略和各种用于模型训练、推理的小工具。
框架概览
以下是OpenMMLab软件栈以及MMPreTrain的安装步骤

其中有个重要概念就是配置文件,可以对配置文件进行修改来得到自己的模型

所以整个算法的数据流如下:

当我们配置好了定义文件,同时选取好了预训练模型并准备好了数据集,就可以通过Registry、Runner等模块以及训练、测试、推理工具来实现算法。

经典主干网络
深度学习早期的网络都比较浅,后来通过堆叠网络能够获得更好的效果如AlexNe、VGG等等。但是人们发现,模型层数增加到一定程度后,分类正确率不增反降。
ResNet
通过实验,得到了残差建模。也就是残差网络

这样的残差结构大大解决了梯度回传的问题,因为在梯度的链式求导法则中,梯度可能越来越小。但是这样的跨层网络,让梯度能够提前传回前面的浅层网络。这种设计是有效的 ,直到现在这种残差的思想仍然存在。
以下是ResNet中的两种残差模块:

ResNet在VGG的基础上改进

本文介绍了MMPreTrain算法库,它是全新升级的预训练算法框架,能提供强大预训练主干网络。文中阐述了其包含的主流模型、自监督学习与多模态算法等内容,还介绍了经典主干网络如ResNet、Vision Transformer,以及自监督学习和多模态算法的相关知识。
最低0.47元/天 解锁文章
390





