线性回归小程序举例,梯度下降法

本文通过一个线性回归小程序实例,详细解析了使用梯度下降法进行参数优化的过程,帮助读者理解该算法在实际问题中的应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

用matlab写了线性回归小程序,主程序如下:后面调用了函数,名字function1
通过一些坐标点,来线性回归拟合一条直线y=ax+b,学习步长theta可以设置,一般0.01,0.001。。。。
function1里用的梯度下降法,
a=a-theta*a的偏导数
b=b-theta*b的偏导数
返回m、n是新的a和b,tt是最小二乘法的方差结果,可以设定小于一定的值就停止


test.m如下


coex=[1 2 3 4 5 6 7 8 9 10];
coey=[2 4 5 7 9 11 13.5 16.2 18.2 20.2];


a=2;
b=2;
theta=0.01;


for idx=1:100000
    [m,n,tt] = function1(coex,coey,a,b,theta);
    a=m;
    b=n;
    fprintf('%d:  a:%f,  b:%f,  tt:%f\n',idx,a,b,tt);
    if tt<0.2
        break
    end
end


plot(coex,coey,'*r');
hold on;


yy=a*coex+b;
plot(coex,yy,'-b');


下面是函数细节,function1.m如下:


function [reta,retb,retc] = function1(x,y,a,b,theta)


reta=0;
retb=0;


size1=size(x,2);
sum1=0;
sum2=0;
sum3=0;
for i=1:size1
    sum1 = sum1+ (a*x(i)+b-y(i))*x(i);
    sum2 = sum2 + (a*x(i)+b-y(i));
    sum3 = sum3 + (a*x(i)+b-y(i)).^2;
end


ja=sum1/size1;
jb=sum2/size1;
retc=sum3/2/size1;




reta=a-theta*ja;

retb=b-theta*jb;










### 线性回归基本原理 线性回归是一种用于建模因变量(目标)和自变量之间关系的方法。对于单变量线性回归而言,其模型形式通常表示为 \( y = w \cdot x + b \)[^1],其中 \( w \) 是权重参数,\( b \) 是偏置项,而 \( x \) 和 \( y \) 则分别代表输入特征和预测的目标值。 为了找到最佳拟合直线,我们需要定义一个衡量误差的标准——通常是均方误差(MSE)。均方误差通过计算实际值与预测值之间的平方差来评估模型性能: \[ J(w, b) = \frac{1}{2m} \sum_{i=1}^{m}(y_i - (\hat{w}x_i + \hat{b}))^2 \] 这里 \( m \) 表示训练样本的数量,\( J(w, b) \) 被称为代价函数或损失函数。 ### 梯度下降法的实现方法 梯度下降是一种迭代优化算法,旨在最小化给定的成本函数。它的工作机制是从初始猜测发,并沿着负梯度的方向逐步调整参数直到收敛到局部最优解。具体步骤如下所示: #### 更新规则 每次更新时按照以下公式修改参数: \[ w := w - \alpha \frac{\partial}{\partial w} J(w,b), \quad b := b - \alpha \frac{\partial}{\partial b} J(w,b) \][^2] 这里的 \( \alpha \) 称作学习率,控制着每一步移动的距离大小;如果设置不当可能会导致不收敛或者过慢收敛的情况发生。 当扩展至多维情形时,上述提到的单一维度上的权值变为向量形式,则相应的梯度也变成一个多分量结构,即对每一个 theta 进行单独求导得到该位置处的变化趋势[^4]。 以下是利用 Python 编写的一个简单版本梯度下降实现代码片段: ```python import numpy as np def compute_cost(X, y, theta): """ Compute cost for linear regression. Parameters: X : array-like shape(m,n) Training data where each row represents one training example and columns are features. y : array-like shape(m,) Labels associated with the corresponding rows of `X`. theta : array-like shape(n+1,) or (n+1, 1) Parameter vector including both weights and bias term. Returns: float value representing total error across all examples divided by number of samples. """ m = len(y) # Number of training instances predictions = X.dot(theta) sq_errors = (predictions - y)**2 return .5 * sum(sq_errors)/m def gradient_descent(X, y, theta_init, alpha=.01, num_iters=1000): """Performs batch Gradient Descent to learn theta.""" m = len(y) costs = [] theta = theta_init.copy() for i in range(num_iters): gradients = (1/m)*((X @ theta)-y).T@X theta -= alpha*gradients.T.flatten() j_theta = compute_cost(X,y,theta) costs.append(j_theta) return theta,costs ``` 此部分展示了如何构建并执行一次完整的梯度下降流程,其中包括初始化参数、循环调用成本函数以及依据当前状态下的斜率信息不断修正估计值直至满足停止条件为止[^3]。 ### 应用场景举例说明 在线性回归的实际运用方面,它可以被广泛应用于房价预估、销售额分析等领域之中。比如,在房地产领域里可以根据房屋面积、房间数量等多个因素建立多元线性回归模型从而较为精准地推测某套房产的大致售价范围。 ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值