1.主要采用训练时水平翻转,测试时也同样水平翻转抽取两次特征并求平均。该思路在人脸识别问题中就被大量采用。
2.输入图像扩大,来自[3]中,将256128的输入变为384128,性能会提升不少,也有人尝试288144[4]
3.随机裁剪,很多人尝试过后会发现性能反而不好,这里有个技巧,就是先补0,然后再裁剪,把图片resize到384128,然后补0至402148,再次随机裁剪为384128。具体做法来自于[5],该文章中是把图片resize到256128,并补0至276148,然后随机裁减至256*128。我个人的理解是这样既能减少图片过多裁减的信息丢失,又能通过黑边补全减少过拟合。
4.随机擦除,random erasing,通过随机擦除图中的一部分方形区域,减少模型过拟合的情况,具体来自于文章[7]中。
5.根据bag of tricks for image classfication 论文,batch size 扩大几倍,原始lr 就要增加几倍。提出从0开始的warm up 理论。
6…根据bag of tricks for image classfication 论文,每个残差块的最后一个BN层的γ参数初始化为0,我们知道BN层的γ、β参数是用来对标准化后的输入做线性变换的,也就是γx^+β,一般γ参数都会初始化为1,作者认为初始化为0更有利于模型的训练。对bias参数执行weight decay操作,weight decay主要的作用就是通过对网络层的参数(包括weight和bias)做约束(L2正则化会使得网络层的参数更加平滑)达到减少模型过拟合的效果。
二.网络结构
1.去除最后一个block的下采样,使得feature ma
Re-id的trick技巧
最新推荐文章于 2023-05-15 13:33:32 发布