山东大学机器学习(实验一内容)——线性回归

本文是山东大学机器学习实验的第一部分,主要介绍线性回归。实验涉及2D线性回归,理解目标函数J(θ),以及如何使用梯度下降法优化参数。在2D线性回归中,通过数据点训练模型,预测不同年龄男孩的身高。实验还探讨了多元线性回归,强调输入预处理的重要性,并指导选择合适的梯度下降学习率。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

1. 描述

第一个练习将为你提供线性回归练习。这些练习已经用Matlab进行了广泛的测试,但它们也应该在Octave中工作,它被称为“免费版的Matlab”。如果你使用的是Octave,那就是
一定要安装Image包(可在Windows中作为选项使用)安装程序,可从Octave-Forge获得Linux。

2.线性回归

回想一下,线性回归模型是
h θ ( x ) = θ T x = ∑ j = 0 n θ j x j h_{\theta}(x) = \theta^Tx=\sum_{j=0}^n \theta_j x_j hθ(x)=θTx=j=0nθjxj
其中 θ \theta θ是我们需要优化的参数, x x x n + 1 n+1 n+1 - 维特征向量。给定一个训练集, { x } ( i ) i = 1 , … , m {\{x\}^{(i)}}_{i=1, \dots,m} { x}(i)i=1,,m,我们的目标是找出 θ \theta θ最佳值,使得目标函数 J ( θ ) J(\theta) J(θ)如图等式可以最小化
J ( θ ) = 1 2 m ∑ i = 1 m ( h θ − y ( i ) ) 2 J(\theta) = \frac{1}{2m} \sum_{i=1}^m(h_{\theta }- y^{(i)})^2 J(θ)=2m1i=1m(hθy(i))2
优化方法之一是梯度下降算法。算法迭代执行,并在每次迭代中,我们更新 θ \theta θ遵循以下规则
θ j : = θ j − α 1 m ∑ i = 1 m ( h θ ( x ( i ) ) − y ( i ) ) x j ( i ) \theta_j :=\theta_j - \alpha \frac{1}{m}\sum_{i=1}^m(h_{\theta }(x^{(i)})- y^{(i)})x_j^{(i)} θj:=θjαm1i=1m(hθ(x(i))y(i))xj

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值