深度学习之正则化系列(1):深入理解参数范数惩罚(L1正则化、L2正则化)原理及tensorflow实现

1、背景简介

说起正则化,那为什么我们训练的模型或者是神经网络需要正则化呢?

它的主要作用在于: 提高泛化能力,防止过拟合


举个例子:上学期间广义分为三种人(仅仅说学习成绩):
学渣:根本就没学懂,书中的题目不会,考试卷也不会(欠拟合)
书呆子:就会课本上的,所有题目都会做,但是考试就是成绩低(过拟合)
学霸: 书中的会,考试照样考100,是不是可怕?


懂了吧,机器学习和人一样,目标就是向第三种一样,就是说我不仅要在训练集上表现的优异,最重要的是在测试集上表现好(平时差点也行,考试100也是不错的)。但是前两种,就是要不没有从数据中学到内容,要不就是测试集上表现的太差!那常用的正则化方法有哪些呢?

2、常见正则化方法
  • 参数范数惩罚
  • 作为约束的范数惩罚
  • 数据集增强
  • 提前终止
  • Dropout

先从参数范数惩罚开始,回想一下,在线性回归等问题中,我们定义了损失函数

J(θXy)=12i=1n(yy)2 J ( θ ; X , y ) = 1 2 ∑ i = 1 n ( y − y ′ ) 2

注:这里的 θ θ 是指所有的参数,包括权重 w w
我们发现,这样学习的模型虽然在测试集上比较好,但是泛化能力一般,于是就有了参数惩罚的思路,直接给 J ( ) 后面加个惩罚项(拖住学习的节奏),也就是正则化项,损失函数变成了:
J(θXy)=12i=1n
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

@RichardWang

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值