持续更新
1.损失函数中对权重进行L2或者L1 Norm,也就是常说的weight decay
2.Dropout
3.BatchNorm和LRNNorm
4.1*3或者3*1这样的卷积
5.GoogLenet中间引出的损失函数
神经网络中有正则化作用的技巧
最新推荐文章于 2025-06-23 14:51:43 发布
持续更新
1.损失函数中对权重进行L2或者L1 Norm,也就是常说的weight decay
2.Dropout
3.BatchNorm和LRNNorm
4.1*3或者3*1这样的卷积
5.GoogLenet中间引出的损失函数