最小二乘法的平方损失函数的推导

理论推导

在线性模型中,假设预测结果与实际结果有误差为ε(i)\varepsilon^{(i)}ε(i)
则线性模型中,误差可以表示为
ε(i)=y(i)−θTx(i)\varepsilon^{(i)} = y^{(i)} - \theta^Tx^{(i)}ε(i)=y(i)θTx(i)
根据中心极限定律,假设误差ε(i)\varepsilon^{(i)}ε(i)服从标准正态分布,则可以得到
p(y(i)∣x(i);θ)=12πσe(−y(i)−θTx(i)2σ2)p(y^{(i)}|x^{(i)};\theta) = \frac{1}{\sqrt{2\pi}\sigma} e^{(-\frac{y^{(i)} - \theta^Tx^{(i)}}{2\sigma^{2}})}p(y(i)x(i);θ)=2πσ1e(2σ2y(i)θTx(i))
根据最大似然估计得到
L(u,σ2)=∏i=1n12πσe−(εi−u)22σ2L(u,\sigma^2) = \prod_{i=1}^{n} \frac{1}{\sqrt{2\pi}\sigma} e^{-\frac{(\varepsilon_i-u)^2}{2 \sigma^2}}L(u,σ2)=i=1n2πσ1e2σ2(εiu)2
取对数得到
ln(L(u,σ2))=−n2lnσ2−n2ln2π−∑i=1n(εi−u)22σ2ln(L(u,\sigma^2)) = -\frac{n}{2}ln\sigma^2-\frac{n}{2}ln2\pi-\frac{\sum_{i=1}^{n}(\varepsilon_i-u)^2}{2 \sigma^2}ln(L(u,σ2))=2nlnσ22nln2π2σ2i=1n(εiu)2
为了使似然函数最大,式中的σ\sigmaσ在上面的假设中为一个定值,所以要使得似然函数取最大,则12∑i=1n(εi−u)2{\frac{1}{2}\sum_{i=1}^{n}(\varepsilon_i-u)^2}21i=1n(εiu)2需要最小,得到平方损失函数为:
J(θ)=12∑i=1n(y(i)−θTx(i))2J(\theta) = \frac{1}{2} \sum_{i=1}^{n}(y^{(i)} - \theta^Tx^{(i)})^2J(θ)=21i=1n(y(i)θTx(i))2

最小二乘法是一种常用的优化方法,它被广泛应用于数据拟合和统计回归问题中,目的是找到一个函数,使得这个函数的预测值与实际观测值之间的误差平方和最小。梯度下降法则是求解最小化函数的一种迭代优化算法,尤其适用于非凸优化问题。 **最小二乘法**: 1. 假设我们有一个线性模型 \( y = \theta_0 + \theta_1x_1 + \theta_2x_2 + ... + \theta_nx_n \),其中 \( y \) 是目标变量,\( x_i \) 是特征向量,\( \theta \) 是模型参数。最小二乘法的目标是找到一组参数 \( \theta \),使得所有数据点到直线 \( y = f(x) \) 的垂直距离之和最小。 2. 实质上,这转化为求解一个代价函数 \( J(\theta) = \sum_{i=1}^{m}(y_i - f(x_i))^2 \),其中 \( m \) 是数据点的数量,\( J \) 随 \( \theta \) 的变化而变化。 **梯度下降法推导过程**: 1. **初始化**:随机选择或设置一个初始参数 \( \theta_0 \)。 2. **计算梯度**:对于每个参数 \( \theta_j \),计算代价函数关于该参数的偏导数(梯度分量),即 \( \frac{\partial J}{\partial \theta_j} = -2\sum_{i=1}^{m}(y_i - f(x_i))\frac{\partial f}{\partial \theta_j} \)。 3. **更新步骤**:沿着梯度的反方向(负梯度)移动一个学习率 \( \alpha \),新的参数值为 \( \theta_j := \theta_j - \alpha \cdot \frac{\partial J}{\partial \theta_j} \)。这一步会降低代价函数值,但不一定每次都能达到全局最小值,可能陷入局部最优。 4. **重复**:如果未达到预设的停止条件(如达到一定的迭代次数、学习率减小到阈值等),重复步骤2和3。 **相关问题--:** 1. 最小二乘法在哪些领域应用广泛? 2. 梯度下降法的其他变种有哪些?它们在什么情况下更适用? 3. 如何调整学习率以提高梯度下降法的性能?
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Alfred young

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值