1.最小-最大规范化
最小-最大规范化对原始数据进行线性变换,变换到[0,1]区间(也可以是其他固定最小最大值的区间)
x[n] = (x[n] - min) / (max - min)
2. 标准化(Standardization or Mean Removal and Variance Scaling)
变换后各维特征有0均值,单位方差。也叫z-score规范化(零均值规范化)。计算方式是将特征值减去均值,除以标准差。
x[n] = (x[n] - mean) / stdev
3. L2-Normalization ( 人脸识别中会用到 )
Normalization主要思想是对每个样本计算其p-范数,然后对该样本中每个元素除以该范数,这样处理的结果是使得每个处理后样本的p-范数(l1-norm,l2-norm)等于1。
p-范数的计算公式:||X||p = ( |x1|^p + |x2|^p +…+ |xn|^p )^1/p
该方法主要应用于文本分类和聚类中。例如,对于两个TF-IDF向量的l2-norm进行点积,就可以得到这两个向量的余弦相似性。
代码:
#include <iostream>
#include <vector>
#include <algorithm>
//
//常用的标准化方法:min-max标准化、 0均值归一化、 L2规范化
enum NormalizationFlag {
MIN_MAX = 0,
Z_SCORE =1,
L2 = 2
};
template<typename _Tp> void normalization(_Tp* src, int length, int normalizationFlag=Z_SCORE)
{
if (normalizationFlag == MIN_MAX) {
const _Tp min = *std::min_elem