吴恩达机器学习 笔记四 正则化

本文探讨了机器学习中过拟合问题及其解决方案——正则化。通过引入正则化参数,对模型参数进行惩罚,使模型泛化能力更强。文章详细介绍了正则化线性回归与logistic回归的代价函数表达式。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  正则化这个问题是比较好理解的。

1. 理解机器学习的目标
  • 机器学习的目标是应用,拟合或分类训练数据只是一个学习的过程。
  • 我们的目标是训练得到的模型在应用的过程中能够比较好的泛化,所以在训练的过程中,我们需要追求一个中庸的状态,这可能不单单是机器学习的问题,而是一个比较普遍的道理。
  • 中庸就意味着差不多,意味着既不要过于精确,也不要误差过大

  图中最左侧为欠拟合,即误差过大。最右侧为过拟合,即过于精确。中间为我们所追求的中庸的状态。
这里写图片描述

2. 解决过拟合问题

  欠拟合问题是比较好解决的,如上图中,原因明显是用于拟合的多项式阶次不够。着重谈一谈过拟合的问题,解决过拟合的方法是正则化,即对导致拟合过于精确的参数θjθj赋予一个较大的惩罚权重,这样在最小化代价函数的过程中,参数θjθj将会变得较小,使得拟合过程变得中庸起来。

  • 正则化线性回归,代价函数表达式

    J(θ)=12m[i=1m(hθ(x(i))y(i))2+λj=1nθ2j]J(θ)=12m[∑i=1m(hθ(x(i))−y(i))2+λ∑j=1nθj2]
    其中,λλ称为正则化参数。
  • 正则化logistic回归,代价函数表达式

    J(θ)=1mi=1m(y(i)log(hθ⃗ (x⃗ (i)))(1y(i))log(1hθ⃗ (x⃗ (i))))+λ2mj=1nθ2jJ(θ)=1m∑i=1m(−y(i)log(hθ→(x→(i)))−(1−y(i))log(1−hθ→(x→(i))))+λ2m∑j=1nθj2
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值