理解
首先,主要讲下对文章的主要理解。简而言之,这篇文章目的是保留图像细节,拒绝最大或者平均池化的简单粗暴操作,可以自适应的学习的加权型池化。
文章借鉴的思想是DDIP。
综述
池化的作用:降低参数量,扩大感受野,增强不变性。
目前常用的池化:最大,平均,带步长的卷积。等等。最大池化是选择领域内最大的,平均是对领域统一的贡献。而strided conv则是简单选择一个节点作为池化后的节点。
文章内容
DDIP
俗话说,一张图可以解释一切。就是下面这张图就能说明DDIP的思想。
O是输出图像,上面一路是经过box filter-降采样-高斯滤波之后的降采样图。经过逆双边滤波的作用,产生不同的加权结果,这样就是产生了扩大细节的作用。
总之就是加权的过程。
DDP
根据对reward function的不同,存在了对称DDP和不对称DDP两种。公式见论文公式5,6。
那么对于上面公式中的I(~)是线性降采样的结果。公式为
在论文中,根据对F的不同,可以产生Full-dPP和lite-DPP。
Full-dpp是指F为不标准的二维滤波,增加了相应大小的参数,可以学习。
对应的lite-dpp 则是为平均权重了。
讨论
接下来的文章中,文章说明了参数的求导结果。并且说明了参数的增加相对于卷积等可以忽略,同时也证明了在特殊情况下ave-pooling 和 max-pooling可以是dpp的特例。
在实验结果中,DPP展现了可以提升0.5-1个百分点的优势。