(MATLAB)使用梯度下降进行一元线性回归

该博客探讨了使用梯度下降法进行一元线性回归的过程,包括模型选择、损失函数设定及参数更新。通过编写梯度下降函数并设置不同学习率,作者展示了学习率对迭代次数和损失函数值变化的影响。实验结果显示,学习率较小导致需要更多迭代次数但损失函数变化平稳,而学习率较大则能更快收敛但损失函数变化剧烈。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

使用梯度下降进行一元线性回归

Step1:选择函数模型:y=wx+b
Step2:选择损失函数:

在这里插入图片描述
Step3:

w—权值,b—偏执项,—学习率,n—迭代次数;

Step4:根据公式:

在这里插入图片描述
来更新w和b,最终得到最优解。

梯度下降函数代码如下:

function [ww,bb,ee]=myGradientDes(x,y,w,b,s,n)
%x,y-样本,w-权值初始值,b-偏置项初始值,s-学习率,n-迭代次数
m=length(x);
for i=1:n
    error=1/(2*m).*sum((b+w.*x-y).^2);
    ww(i)=w;
    bb(i)=b;
    ee(i)=error;
    b2=b-s*1/m.*sum((b+w.*x-y)*1);
    w2=w-s*1/m.*sum((b+w.*x-y).*x);
    b=b2;
    w=w2;
end
end

作者使用的是自己收集的身高体重的数据。
设置不同的学习率并打出损失函数和权值随迭代次数的变化曲线,代码如下:

%%设置不同学习率
LRate=[0.0015,0.15,0.3,0.6,1];
color={'r-','b-','y-','c-','m-'};
for i =1:5
  [w,b,e]=myGradientDes(x,y,-2,0,LRate(i),200);
  hold on
  plot(w,color{i});
end
legend('0.0015','0.15','0.3','0.6','1');
xlabel('迭代次数'),ylabel('w');
title('不同学习率下的w变化曲线');
figure
for i =1:5
  [w,b,e]=myGradientDes(x,y,-2,0,LRate(i),200);
  hold on
  plot(e,color{i});
end
legend('0.0015','0.15','0.3','0.6','1');
title('不同学习率下的损失函数值的变化曲线');
xlabel('迭代次数'),ylabel('LossFunction Value');

结果如下图所示

在这里插入图片描述

在这里插入图片描述

通过上图可以看出,学习率越小,找到最优解时,需要迭代的次数越多,且损失函数的值变化的较为缓慢;当学习率较大时,找到最优解时,需要迭代的次数较少,且损失函数的值变化的较为迅速。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

我是小蔡呀~~~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值