在深度学习中,特征的归一化起到至关重要的作用,甚至比本身所提出的方法更重要。比如相关滤波(Correlation Filters)的输出结果,协方差矩阵等,若不经过合适的归一化方法,其作为特征表示的最终结果(Performance)将会很差。
下面介绍在深度学习中常用的特征归一化(Normalized Features)方法如下:
按照大类划分的话可大致分为如下两类:
1. Soft Normalization
在深度学习中若要实现End-to-End训练,需要函数可导,Soft Normalization相对于Hard Normalization的最大优势就是它可导,Hard Normalization一般易出现断点,导致函数不可导。Soft Normalization通常为特征乘以一个(0, 1)之间的值,如VLAD编码:
其中对
进行Soft Normalization;
2. Power Normalization
幂归一化的形式为,
。一般情况下
,就变成
norm了。
下面根据VLAD编码所使用的特征归一化进行详述:
VLAD normalization
VLFeat VLAD implementation supports a number of different normalization strategies. These are optionally applied in this order:
1. Component-wise mass normalization. Each vector is divided by the total mass of features associated to it
.
2. Square-rooting. The function , is applied to all scalar components of the VLAD descriptor.
3. Component-wise normalization. The vectors
are divided by their norm
.
4. Global normalization. The VLAD descriptor
is divided by its norm
.
上述4种特征归一化方法基本上概括了目前深度学习中常用的特征归一化方法,有一点需要注意的是,上述4种特征归一化方法均是针对特征向量而言的,若为矩阵,还有针对矩阵更优的特征归一化方法,如MPN-COV。
如果您觉得我的文章对您有所帮助,欢迎扫码进行赞赏!
参考: