从概率论的角度理解 正则化

本文探讨了机器学习中正则化的作用及其与先验知识的关系,通过掷骰子的例子解释了如何利用正则化避免模型过拟合,并保持模型预测的合理性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

自己的一个理解,如果有误,请在留言处指出,万分感谢。

模型学习,不管是判别模型还是生成模型,都是学习训练数据集中特征 X X 与 其输出 Y 的后验概率 P(Y|X) P ( Y | X ) ,其实也就是直接学习或者间接学习的区别。

因此,我们的模型学到的是一个后验概率,为了防止出现学习过拟合的情况,我们通常会在损失函数后面加一个关于权重 W W 的罚项,也叫正则项,这就是我们说的正则化方法。

而这个正则项,就相当于概率论中的先验知识。

比如掷骰子,我们用一个模型去预测 点数6 朝上的概率,每个骰子不同的面的表面质量是不均匀(这里拿那种用小洞洞做点数的骰子,毕竟洞的数量不一样),但是我们知道每个面朝上的概率在 1/6 左右,这是我们根据已知知识作出的先验假设,因此,当模型从仅含少量样本的数据集中学到 5/6 5 / 6 的 点数6 朝上的概率从而预测时,我们就知道模型存在问题,需要更改。

例子是我瞎扯的,主要是说明先验概率的意义

正则化就像是这种先验知识,当求解后验概率加上先验知识,就好像加了一种约束条件,让模型尽可能地符合客观规律。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值