吴恩达-机器学习公开课 学习笔记 Week3-2 Regularization
3-2 Regularization 课程内容
此文为Week3 中Regularization的部分。
3-2-1 Solving the Problem of Overfitting
The problem of overfitting
欠拟合/高偏差:没有很好地你和训练数据
过度拟合/高方差: 当变量过多时,训练出的函数总能很好拟合训练数据,代价函数接近于0。这导致它无法泛化到新的样本。


解决过度拟合:
- 减少选取变量数量:人工选择保留的特征量 / 模型选择算法(自动选择保留特征量)
- 正则化(需要所有特征量,每一个特征量都对预测有用):保留所有特征量,但减少数量级或者θj参数值
Cost Function
加上惩罚项,让θ3 θ4足够小

正规化:
让一些参数值比较小,我们往往能得到一个形式更简单的假设,因此不易发生过拟合的问题。
我们对θ0不做正则化。

λ:正则化参数——控制两种目标(拟合训练、保持参数值小)的平衡关系。

如果λ特别大,就会导致欠拟合。
Regularized Linear Regression
梯度下降

θ0的更新不变。
正规方程

样本总数m小于等于特征数量n时,XTX不可逆,但是XTX+λ[…]可逆。
Regularized Logistic Regression
梯度下降


高级优化

测验 Regularization





课程链接
https://www.coursera.org/learn/machine-learning/home/week/3
本文为吴恩达机器学习公开课第三周关于正则化的学习笔记,详细介绍了解决过拟合问题的方法,包括减少选取变量数量和正则化策略。讲解了正则化线性回归与逻辑回归的梯度下降法和正规方程,以及如何通过调整正则化参数λ来平衡模型复杂度与训练误差。
1536

被折叠的 条评论
为什么被折叠?



