keras搬砖系列-正则化
1,正则化简介
以逻辑回归来对正则化进行介绍
逻辑回归原来的代价函数为:
minw,bJ(w,b)=minw,b1m∑mi=1L(y^(i),y(i))
其中: w∈Rnx,b∈R
加入正则化为:
J(w,b)=1m∑mi=1L(y^(i),y(i))+λ2m||w||22
其中:
||w||2=∑nxj=1=wTw
上述式子为L2正则化
正则化是一种非常实用的减少方差的方法,正则化时会出现偏差方差权衡问题,偏差可能会进行增加。如果网络足够大的时候,增幅通常不会太高。人们通常会用交叉验证集来选择正则化参数λ
通常来说:损失函数是单个样本的误差,成本函数是所有训练样本的误差。
2,L1正则化使得模型变得稀疏,是否有利于模型压缩
实际上L1正则化使得模型变得稀疏,但是没有太多存储内存,因为参数个数没有变,所以L1正则化目标不是为了模型压缩
3,为什么L2正则化被称作权重衰减
来看成本函数,包含了w[1],b[1]到w[L],b[L]的所有函数,L是神经网络的所含有的层数,定义如下:
J(w[1],b[1],...,w[L],b[L])=1m