机器学习中的线性回归与梯度下降算法详解
1. 引言
在机器学习领域,我们会接触到多种训练模型的方法,如批量梯度下降(batch GD)、小批量梯度下降(mini - batch GD)和随机梯度下降(stochastic GD)。接下来,我们将探讨多项式回归,这是一种能拟合非线性数据集的更复杂模型,但它比线性回归更容易出现过拟合问题。我们还会研究逻辑回归和softmax回归这两种常用于分类任务的模型。在学习过程中,会涉及不少数学方程,需要我们具备线性代数和微积分的基础知识。
2. 线性回归模型
2.1 线性回归模型的基本形式
线性回归模型是对输入特征的加权求和,再加上一个常数(偏置项)。其基本形式如下:
- 一般形式:$\hat{y} = \theta_0 + \theta_1x_1 + \theta_2x_2 + \cdots + \theta_nx_n$
- $\hat{y}$ 是预测值。
- $n$ 是特征的数量。
- $x_i$ 是第 $i$ 个特征的值。
- $\theta_j$ 是第 $j$ 个模型参数,包括偏置项 $\theta_0$ 和特征权重 $\theta_1, \theta_2, \cdots, \theta_n$。
- 向量化形式:$\hat{y} = h_{\theta}(x) = \theta \cdot x$
- $h_{\theta}$ 是使用模型参数 $\theta$ 的假设函数。
- $\theta$ 是模型的参数向量,包含偏置项 $\theta_0$ 和特征权重 $\theta_1$ 到 $\theta_n$。
- $x$ 是
超级会员免费看
订阅专栏 解锁全文
1182

被折叠的 条评论
为什么被折叠?



