机器学习之正则化

正则化

概念

        正则化就是对最小化经验误差函数上加约束,约束有引导作用,使在优化误差函数的时候倾向于选择满足约束的梯度减少的方向,使最终的解倾向于符合先验知识。(来自百度百科,不理解没关系,可继续向后阅读)

为什么需要正则化

        在机器学习数据拟合过程中,会出现三种结果:
results  在这里插入图片描述
        y1情况称为欠拟合,拟合程度不够,从训练数据中训练出的函数模型与实际数据偏差过大,无法正确表达出数据所具有的特征。
        y2是我们期望的误差小的且可应用的拟合曲线
        y3情况称为过拟合,函数模型过于符合训练数据,使其不能用于实际预测。
        对于过拟合我们可知若有m个训练数据,那么我们始终可以构造一个m-1次的方程,使其通过所有训练数据点。如果我们能解决过拟合问题,使我们训练出的方程能泛化到新的数据样本中,那么我们就获得了一个合适的预测函数。
        解决过拟合通常有两种方法:
        1. 减少特征变量的数量
        需要减少那些不需要的特征变量,去掉那些没用且会对拟合结果造成错误的特征变量。但我们在减少特征变量前需要先判断其是否不需要,一般而言,所有特征都会对结果造成影响,我们舍弃了一些信息,就会舍弃这些影响。需要保证舍弃的特征对所有的数据(训练数据和新数据)预测产生的影响都是极小的。
        2.正则化
        保留所有的特征变量,但是减小特征变量的数量级(通过减小变量前的参数)。当实验数据有很多无关紧要的特征时,正则化可以很好的发挥作用。

正则化思想

        一般我们通过不断地使代价函数减小来求解我们想要得到的特征变量前的参数θ,假设有函数y = θ01x+θ2x23x34x4,我们想要x3和x4对我们的预测结果产生较小的影响,我们可以通过减小θ3和θ4来实现,如何减小θ3和θ4?可以通过添加惩罚项来实现。
        一般的代价函数:
        normal
        添加了惩罚项的代价函数:
        regularze
        1000 只是随便写的某个较大的数字而已。添加了惩罚项后,如果我们想要最小化这个函数,那么为了最小化这个新的代价函数,我们要让θ3和θ4尽可能小。θ3和θ4变小了,那么θ3x3和θ4x4就在函数中变得很小,对我们的预测产生的影响也就变得很小了。
        更一般的添加了惩罚项的代价函数:
        

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值