1.关于pytorch中的upsample、反卷积的解释:
https://blog.youkuaiyun.com/g11d111/article/details/82855946
2.关于反卷积与上采样的区别
https://www.zhihu.com/question/63890195
3.关于双线性差值的实现
https://www.cnblogs.com/yssongest/p/5303151.html
自己的一点思考:
最近项目中用到了pytorch与caffe模型的相互转换,在pytorch中的upsample层转caffe时,当差值模式为nearest时转换后用的caffe中的upsample层(yolov3的实现),而当模式用bilinear时,转换后caffe用的deconvolution层,以此带出了我对caffe中上采样upsample与反卷积deconvolution的再次思考,在看完上述1和2博客中大神们的总结后,我对这两个有了如下理解:
基于yolov3实现的caffe的upsample层是没有权重的,它就相当于把输入的数据的宽和高扩大scale倍输出,这个扩大的过程就相当于把一个位置的数据复制给它旁边一个scale范围的数据,这个和最近邻差值原理一样,所以pytorch上采样是nearest时,其实与caffe的upsample的处理是相同的
而deconvolution层是给输入数据先添加空洞0,然后再卷积的过程,因为用到卷积核,所以有权重,这个权重是需要外界输入的,也可以学习的,pytorch的双线性其实是给这个权重做了个初始化。如果只针对反卷积层来说,它可以由任意一种方式得到权重,比如提前给它初始化,或者通过训练来学习,转模型时候就是直接给它按照双线性计算的,如果用其他的差值方式也可以用其他的计算来得到权重。
对于pytorch来说,upsample 最近邻没有权重,双线性类似有权重,不过不是训练学习到的 ,直接计算得到的。