梯度下降(gradient descent)

本文详细介绍了线性回归模型及其损失函数的定义,并通过梯度下降法进行了参数优化。给出了具体的数学推导过程及Python实现代码。
侵删!!!
对于一般的线性方程:

hθ(X)=θ0+θ1x1+......+θnxn \text{h}_\theta(\mathbf{X})=\theta_0 + \theta_1x_1 + ...... + \theta_nx_n hθ(X)=θ0+θ1x1+......+θnxn

这里的

θi \theta_i θi

就是我们需要拟合的参数项
表示成矩阵形式:

h(X)=∑i=0nθixi=θTX \text{h}(\mathbf{X})=\sum_{i=0}^n\theta_ix_i=\mathbf{\theta^TX} h(X)=i=0nθixi=θTX

损失函数:

J(θ)=12m∑i=1m(hθ(X(i))−y(i))2 \text{J}(\theta)=\frac{1}{2m}\sum_{i=1}^m(h_\theta(\mathbf{X}^{(i)})-y^{(i)})^2 J(θ)=2m1i=1m(hθ(X(i))y(i))2
这里mmm表示样本的数量,加入系数2是为了在后续求偏导的时候消掉,使得公式更加简洁。我们在优化的过程中就是为了使得损失函数最小化(lossfunction)\text(loss function)(lossfunction),即:
arg minθJ(θ) \underset{\theta}\mathbf{\text{arg min}} \mathbf{J(\theta)} θarg minJ(θ)

根据梯度下降的思想,参数的最优解可以表示为:

θj:=θj−η∂J(θ)∂θj \theta_j:=\theta_j- \eta \frac{\partial J(\theta)}{\partial\theta_j} θj:=θjηθjJ(θ)

对于梯度∂J(θ)∂θj\frac{\partial J(\theta)}{\partial\theta_j}θjJ(θ) 的解法,需要将每个参数的偏导求出来,经过迭代之后最终得到未知参数的值,下面进行推导:

∂∂θjJ(θ)=∂∂θj12m∑i=1m(hθ(X(i))−y(i))2=12m∂∂θj[(hθ(X(1))−y(1))2+..+(hθ(X(m))−y(m))2]=12m[2(hθ(X(1))−y(1))∂∂θj(∑k=0nθkxk(1)−y(1))+......+2(hθ(X(m))−y(m))∂∂θj(∑k=0nθkxk(m)−y(m))]=1m[(hθ(X(1))−y(1))xj(1)+......+(hθ(X(m))−y(m))xj(m)]=1m∑i=1m(hθ(X(i))−y(i))xj(i) \begin{aligned} \frac{\partial}{\partial\theta_j} J(\theta) & =\frac{\partial}{\partial\theta_j} \frac{1}{2m} \sum_{i=1}^m \left(h_\theta \left(\mathbf{X}^{(i)}\right) - y^{(i)}\right)^2\\ &=\frac{1}{2m} \frac{\partial}{\partial\theta_j}\left[\left(h_\theta\left(X^{(1)}\right)-y^{(1)}\right)^2+..+\left(h_\theta\left(X^{(m)}\right)-y^{(m)}\right)^2\right]\\ &=\frac{1}{2m}\left[2\left(h_\theta\left(X^{(1)}\right)-y^{(1)}\right)\frac {\partial}{\partial\theta_j}\left(\sum_{k=0}^n\theta_kx_k^{(1)}-y^{(1)}\right)+......+2\left(h_\theta\left(X^{(m)}\right)-y^{(m)}\right)\frac{\partial}{\partial\theta_j}\left(\sum_{k=0}^n\theta_kx_k^{(m)}-y^{(m)}\right)\right]\\ &=\frac{1}{m}\left[\left(h_\theta\left(X^{(1)}\right)-y^{(1)}\right)x_j^{(1)}+......+\left(h_\theta\left(X^{(m)}\right)-y^{(m)}\right)x_j^{(m)}\right]\\ &=\frac{1}{m}\sum_{i=1}^{m}\left(h_\theta\left(X^{(i)}\right)-y^{(i)}\right)x_j^{(i)} \end{aligned} θjJ(θ)=θj2m1i=1m(hθ(X(i))y(i))22m1θj[(hθ(X(1))y(1))2+..+(hθ(X(m))y(m))2]=2m1[2(hθ(X(1))y(1))θj(k=0nθkxk(1)y(1))+......+2(hθ(X(m))y(m))θj(k=0nθkxk(m)y(m))]=m1[(hθ(X(1))y(1))xj(1)+......+(hθ(X(m))y(m))xj(m)]=m1i=1m(hθ(X(i))y(i))xj(i)

这里其实就是:

∂∂θjJ(θ)=1mXT∗L \frac{\partial}{\partial\theta_j} J(\theta)=\frac{1}{m}X^T*L θjJ(θ)=m1XTL
XTX^TXT为数据矩阵的转置,LLL为每次更新之前计算得到的losslossloss

对于李宏毅深度学习作业1
1.处理数据集,提取PM2.5的数据,每10小时为一条数据,前9小时的PM2.5值作为特征,最后1小时PM2.5值作为label.

这里我的数据集读取之后列名有点问题,重新处理了一下

import pandas as pd
import numpy as np

#Modify column name
df = pd.read_csv('train.csv', encoding='ISO-8859-1')
df = df.rename(columns={'¤é´Á':'data', '´ú¯¸':'stations', '´ú¶µ':'obvservations'})
df['stations'] = 'station'

#create dataSet
df_pm25 = df[df.obvservations == 'PM2.5'].loc[:, '0':]
X_train = []
y_train = []
for idx, row in df_pm25.iterrows():
    for i in range(15):
        cluster = row[i:i+10].tolist()
        X_train.append(cluster[:9])
        y_train.append(cluster[9])
X_train = np.asarray(X_train, dtype=np.float64)
y_train = np.asarray(y_train, dtype=np.float64)
这里是按照课程提供的伪代码写的代码,用adagrad做的参数优化,最后你不确定需要迭代多少步可以将loss存下来,作图看一下。
learning_rate = 0.001
iterations = 10000000
#W的维度需要根据你数据集的特征数量确定,也就是列数
W = np.zeros((len(X_train[0])))
s_grad = np.zeros((len(X_train[0])))
lossVals = []
for i in range(iterations):
    y_pred = np.dot(X_train, W)
    loss = y_pred - y_train
    #计算梯度值,上面公式推导已经解释了梯度等于X_train和loss做点积
    gradient = 2* np.dot(X_train.transpose(), loss)
    s_grad += gradient ** 2
    ada = np.sqrt(s_grad)
    W = W - learning_rate*gradient/ada
    lossVals.append(np.mean(loss))

参考吴恩达的cs229课程和台大李宏毅深度学习课程
梯度下降(GD)和随机梯度下降(SGD)是优化算法中两种常见的方法,主要用于最小化目标函数,尤其在机器学习和深度学习中被广泛使用。两者在更新参数的方式、计算效率以及收敛特性等方面存在显著差异。 ### 更新参数的方式 梯度下降(GD)是一种批量更新方法,每次迭代时计算整个训练集的梯度,然后更新参数。这种方法确保每次更新都朝着全局最优方向进行,但计算成本较高,尤其是在数据集较大时。公式如下: $$ \theta_{t+1} = \theta_t - \eta \nabla J(\theta_t) $$ 其中,$\theta$ 是参数,$\eta$ 是学习率,$\nabla J(\theta_t)$ 是目标函数 $J$ 在 $\theta_t$ 处的梯度。 随机梯度下降(SGD)则是一种逐样本更新的方法,每次迭代只使用一个样本(或一个小批量的数据)来估计梯度并更新参数。这种方式减少了计算负担,同时也引入了更多的噪声,使得参数更新的方向不一定每次都朝着全局最优方向。公式如下: $$ \theta_{t+1} = \theta_t - \eta \nabla J_i(\theta_t) $$ 其中,$\nabla J_i(\theta_t)$ 是第 $i$ 个样本的目标函数梯度。 ### 计算效率 梯度下降(GD)在每次迭代时需要计算整个训练集的梯度,因此在大规模数据集上计算成本较高,内存占用较大[^2]。相比之下,随机梯度下降(SGD)每次只使用一个样本或小批量数据进行更新,计算效率更高,适合处理大规模数据集。 ### 收敛特性 梯度下降(GD)由于每次更新都基于整个数据集的梯度,因此收敛路径较为平稳,能够更精确地接近全局最优解。然而,这种方法在目标函数存在多个局部极小值时,可能会陷入局部最优解。 随机梯度下降(SGD)由于每次更新基于单个样本或小批量数据,其路径具有较大的波动性,这有助于跳出局部最优解,从而可能找到更好的全局最优解[^3]。然而,这种波动性也可能导致最终收敛到一个接近最优解的区域,而不是精确的最优解。 ### 实现示例 以下是一个简单的Python实现示例,展示了梯度下降(GD)和随机梯度下降(SGD)的基本实现。 #### 梯度下降(GD)示例 ```python def gradient_descent(X, y, learning_rate=0.01, num_iterations=1000): m, n = X.shape theta = np.zeros(n) for i in range(num_iterations): gradient = (X.T @ (X @ theta - y)) / m theta -= learning_rate * gradient return theta ``` #### 随机梯度下降(SGD)示例 ```python def stochastic_gradient_descent(X, y, learning_rate=0.01, num_iterations=1000): m, n = X.shape theta = np.zeros(n) for i in range(num_iterations): for j in range(m): gradient = (X[j] * (X[j] @ theta - y[j])) theta -= learning_rate * gradient return theta ``` ### 总结 梯度下降(GD)和随机梯度下降(SGD)各有优劣,选择哪种方法取决于具体的应用场景。GD适合数据集较小的情况,能够提供更稳定的收敛路径;而SGD则更适合大规模数据集,尽管收敛路径波动较大,但计算效率更高,并且有助于避免陷入局部最优解。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值