深度神经网络—正则化(一)L2正则化

本文探讨深度学习中的过拟合问题及其解决方案,重点介绍了L2正则化和L1正则化的工作原理,包括它们如何帮助避免过拟合,以及两者之间的区别。通过对比L1和L2正则化,理解它们在参数更新过程中的不同作用。
TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

深度学习可能存在过拟合问题——高方差,有两个解决办法,一是正则化,另一个是准备更多的数据,但由于无法时时刻刻准备足够多的训练数据或者获取数据的成本高,所以通常使用正则化的方法来避免过拟合。

正则化的主要方法有:

  1. L2正则化
  2. dropout
  3. 数据增广
  4. early stopping
  5. Bagging
  6. 在样本中增加噪声

本篇博客先介绍L2正则化

1. L2正则化公式及参数更新

我们代价函数中加入正则化,只需添加参数λ,也就是正则化参数。得到:

L2正则化:
在这里插入图片描述

记作:
在这里插入图片描述
使用梯度下降法进行参数更新:
在这里插入图片描述
该正则化项表示,无论w是什么,都试图让它变得更小。相当于给每个矩阵前面都成了一个系数(1-α λ/m),该系数小于1,因此L2范式也被称为“权重衰减”。也就是相对于未正则化之前的参数,L2正则化减小的是参数w的一个比例。

2. 为什么L2正则化有利于

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.9

TensorFlow-v2.9

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值