15、机器学习中的批量梯度下降与线性代数应用

机器学习中的批量梯度下降与线性代数应用

1. 批量梯度下降

在机器学习中,传统的随机下降方法是基于单个观测值来更新模型,目标是最小化单个观测值的误差,其成本函数定义如下:
[
cost(\theta_0, \theta_1) = (obs.Cnt - (\theta_0 + \theta_1 \times obs.Instant))^2
]

而批量梯度下降则聚焦于整个数据集上的平均误差,即所有单个误差的平均值。此时成本函数变为:
[
cost(\theta_0, \theta_1) = \frac{1}{N} \left[ (obs_1.Cnt - (\theta_0 + \theta_1 \times obs_1.Instant))^2 + \cdots + (obs_N.Cnt - (\theta_0 + \theta_1 \times obs_N.Instant))^2 \right]
]

要更新参数 $\theta_1$,需要计算成本函数关于 $\theta_0$ 和 $\theta_1$ 的导数。根据导数的性质,$f(x) + g(x)$ 的导数是它们各自导数的和,所以聚合误差的导数就是每个单个观测值导数的和。$\theta_1$ 的更新公式如下:
[
\theta_1 \leftarrow \theta_1 - \alpha \times \frac{1}{N} \left[ obs_1.Instant \times (obs_1.Instant \times \theta_1 + \theta_0 - obs_1.Cnt) + \cdots + obs_N.Instant \times

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值