一、keras内置3种正则化方法
keras.regularizers.l1(lambda)
keras.regularizers.l2(lambda)
keras.regularizers.l1_l2(l1=lambda1, l2=lambda2)
目前我的理解是lambda越大,对参数的约束就越强,也就是惩罚力度越大。
其中L1正则化方法,是对|w|进行惩罚,使得w趋近0
而L2正则化方法,是对w2进行惩罚,使得w尽可能小
Dense,Conv1D,Conv2D,Conv3D有统一的正则化API,见keras中文文档。
二、3个正则化关键字
1. kernel_regularizer
对权值进行正则化,大多数情况下使用这个
2. bias_regularizer
限制bias的大小,使得输入和输出接近
3. activity_regularizer
对输出进行正则化,使得输出尽量小
参考博客:https://blog.youkuaiyun.com/xovee/article/details/92794763
本文介绍了Keras中三种内置正则化方法:L1、L2及L1_L2,详细解释了它们如何通过调整参数lambda来约束模型权重,防止过拟合。同时,文章列举了Dense、Conv1D等层的正则化API,并说明了kernel_regularizer、bias_regularizer和activity_regularizer的作用。
1288

被折叠的 条评论
为什么被折叠?



