ML常用技巧

本文探讨了机器学习中常见的过拟合问题及其解决方案——正则化。通过引入正则化项来限制模型复杂度,避免过多特征导致的过拟合现象。文中详细介绍了在线性和逻辑回归中应用正则化的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

ML常用技巧

  • Regularization
  • Modification of the logistic regression to the SVM
  • 图片链接和图片上传
  • LaTex数学公式
  • UML序列图和流程图
  • 离线写博客
  • 导入导出Markdown文件
  • 丰富的快捷键

Regularization

Overfitting
通常来说,当feature的个数非常多时,非常容易发生overfitting现象。先说underfitting,当model不能很好的反应数据中的规律时,我们可以说发生了underfitting,正如下图中最左侧的图一样。而当feature的个数非常多时,可以通过调整参数,使得训练后的模型刚好可以代表每一个点的特性。而如果此时的model又不具有描述新数据的关系,那么就发生了overfitting。正如下面最右侧的图。下面中间的图可以认为是一种“刚刚好”的状态。



underfitting justright and overfitting for linear regression

上图给了一个关于线性回归的例子,下面可以再看一个逻辑回归中发生underfitting 和 overfitting的例子。


underfitting justright and overfitting for logistic regression

有些时候我们有很多很多量可以供我们分析,来训练我们的model,比方说预测房子的价格。



然而,当feature的个数特别多的时候,就容易发生overfitting。但也有一些相应的解决办法,比如



- 手动的选择一些feature
- 使用model selection algorithm
- Regularization :
- 保留所有的feature,但是要降低feature对应的参数θjθj的值
- 这种方法当feature的个数非常多的时候很有效,每一个feature都对预测贡献一点点而已。

于是我们可以再cost function中加入一项λnj=1θ2jλ∑j=1nθj2,来约束这些参数的大小。对于线性回归来说,新的cost function就变成了

J(θ)=12mi=1m(hθ(x(i))y(i))2+λj=1nθ2j,J(θ)=12m∑i=1m(hθ(x(i))−y(i))2+λ∑j=1nθj2,

而对于逻辑回归来说,新的cost function就变成了。
J(θ)=1mi=1m(y(i)log(1hθ(x(i)))+(1y(i))loghθ(x(i)))+λ2mj=1nθ2j.J(θ)=−1m∑i=1m(y(i)log⁡(1−hθ(x(i)))+(1−y(i))log⁡hθ(x(i)))+λ2m∑j=1nθj2.

需要注意的是,λnj=1θ2jλ∑j=1nθj2中不包含bias term θ0θ0,即jj的值是从1开始取的。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值