1.2 回归(regression)
回归问题如何寻找使损失函数最小化的最优解,假设函数为线性回归模型函数,整体思想如下:
针对最小二乘法来说,可以使用梯度下降法

算法实现:

而随机梯度下降算法只不过是在梯度下降法(又称批量梯度下降法)的基础上做出了改进,选取的数据非全部数据,而是抽样选择部分数据对整体数据进行“以偏概全”

本文详细介绍了Spark MLlib中的回归算法,包括线性回归、保序回归、Lasso和岭回归,以及带随机梯度下降的流式线性回归。重点讨论了正则化在解决过拟合问题中的作用,特别是L1和L2正则化的区别。此外,还提到了广义线性模型在回归中的应用。
回归问题如何寻找使损失函数最小化的最优解,假设函数为线性回归模型函数,整体思想如下:
针对最小二乘法来说,可以使用梯度下降法

算法实现:

而随机梯度下降算法只不过是在梯度下降法(又称批量梯度下降法)的基础上做出了改进,选取的数据非全部数据,而是抽样选择部分数据对整体数据进行“以偏概全”


被折叠的 条评论
为什么被折叠?