数据挖掘复习 回归

3.1 线性回归:

  Features: Denoted as x=[x1,x2,...xk]T,因为特征一般以列向量来表示。

  多个特征的表示方法。

  使用一个关于X的线性方程来拟合Y。

  通过代价函数J(Θ) 在优化条件下,来选取或者学习最优Θ。目标是找到一个Θ,使这个J(Θ)最小。

  最小二乘法:梯度下降算法,不断更新Θ,直到Θ收敛。

  显示最小化:Θ*=(XTX)-1XTy

  最后是对最小二乘法的一个几何解释、概率解释

  

  局部加权线性回归(Locally Weighted Linear Regression):与原始线性回归的区别在于,原始线性回归所有的测试点都由相同的参数Θ,而局部加权线性回归所有的测试点拥有不同的测试点Θ。

  原始线性回归是一种参数学习方法,LWR是一种非参数方法。因为参数学习方法拥有固定的有限数目的Θ,我们一旦获得并保存了Θ之后,就不再需要训练集来做预测了;如果使用LWR做预测,我们必须时刻保持整个训练集。

转载于:https://www.cnblogs.com/whutqueqiaoxian/p/4851334.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值