线性回归——梯度下降法

本文通过实例介绍了线性回归模型中利用梯度下降法进行参数优化的方法,包括批量梯度下降和随机梯度下降。批量梯度下降在数据集较大时可能收敛速度较慢,而随机梯度下降虽然不保证找到全局最优解,但能快速收敛到局部最优。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

问题引入

已知南京地区的一组数据:

面积 房间数 价格
2104 3 400
1600 3 330
2400 3 369
1416 2 232

现在来了一个新的房子,知道其面积和房间数,其价格应该是多少合适呢?
我们可以将面积和房间数看成是房子的两个特征,如何根据这些特征预测价格,需要建立其价格与特征之间的联系。我们设定价格与这些特征之间呈一个近似线性的关系,那么我们就需要找出一个线性函数h:

hθ(x)=θ0+θ1x1+θ2x2

x0=1 ,那么上述公式就转化为
h(x)=i=0mθTx

现在,给出一组训练数据,如何找出最合适的 θ 呢?最合适的 θ 意味着根据 θ 计算出来的 h(x) 与y最接近。于是我们定义误差函数:
J(θ)=12
### 线性回归使用梯度下降法实现的方法及原理 #### 方法概述 为了在线性回归中应用梯度下降法,目标是最小化模型预测值与实际观测值之间的差异。这通常通过最小化均方误差(MSE)作为损失函数来完成[^1]。 #### 定义线性假设 设有一个简单的单变量线性回归问题,其中输入特征为 \(X\) ,输出标签为 \(y\) 。线性关系可表示为: \[ h_\theta(x)=\theta_0+\theta_1x \] 这里 \(h_\theta(x)\) 是关于参数向量 \(\theta=[\theta_0,\theta_1]\) 的假设函数[^2]。 #### 初始化参数并计算初始成本 在开始迭代之前,先初始化权重(即θ),一般设置为零或很小的随机数。接着利用当前设定好的θ去估计样本的目标值,并据此算出整个训练集中所有实例的成本总和——平均平方差[MSE]。 #### 计算梯度更新规则 对于每一个参数 θj (j=0, j=1),按照下面的方式调整它: \[ \theta_j := \theta_j - \alpha \frac{\partial}{\partial \theta_j} J(\theta_0, \theta_1) \] 这里的 α 表示学习率;\(J(\theta_0, \theta_1)\) 则代表我们的代价/损失函数,在这里是 MSE 函数。具体来说就是对每个参数求偏导数以获得该方向上最陡峭的方向,从而指导我们如何改变参数使得下一次计算出来的MSE更小一些[^3]。 #### 编写Python代码实现上述过程 下面是基于纯 Python 和 NumPy 库编写的简单例子,用于演示如何运用批处理方式下的梯度下降来进行一元线性拟合: ```python import numpy as np def compute_cost(X, y, theta): m = len(y) predictions = X.dot(theta) square_err = (predictions - y)**2 return 1/(2*m)*np.sum(square_err) def gradient_descent(X, y, theta, alpha, num_iters): m = len(y) cost_history = [0]*num_iters for iteration in range(num_iters): prediction = X.dot(theta) errors_x1 = (prediction-y)*X[:,0] errors_x2 = (prediction-y)*X[:,1] theta[0][0] -= alpha*(1/m)*errors_x1.sum() theta[1][0] -= alpha*(1/m)*errors_x2.sum() cost_history[iteration] = compute_cost(X,y,theta) return theta,cost_history data=np.loadtxt('F:\\python\\机器学习\\data\\梯度下降求解逻辑回归\\梯度下降\\data\\logireg_data.txt',delimiter=',') m=len(data) X=data[:,:-1].reshape(m,1) ones=np.ones((m,1)) X=np.hstack([ones,X]) y=data[:,-1:] iterations = 1500; alpha = 0.01; theta = np.zeros([2,1]) theta ,cost_history=gradient_descent(X,y,theta,alpha,iterations) print("Theta found by gradient descent:") print(theta) ``` 此段程序首先加载了一个CSV文件中的数据集,然后执行了批量梯度下降算法来寻找最佳拟合直线的斜率和截距[^4]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值