线性回归

本文介绍了线性回归,它能用直线描述数据关系以进行简单预测,是很多复杂模型的基础。给出了线性模型的基本形式,阐述求解模型参数W需先定义损失函数,有最小二乘法和梯度下降两种求解方式,并给出了相关公式。

  线性回归,用高中课本知识来说就是能够用一个直线较为精确地描述数据之间的关系. 这样当出现新的数据的时候,就能够预测出一个简单的值。(虽然线性模型在实际项目中几乎不会单独出现,但它在整个机器学习中举足轻重.它是很多复杂模型的基础,譬如逻辑回归,神经网络,支持向量机等)。
  线性模型的基本形式是:给定由d个特征描述的示例? = (x1; x2; … ; xd),其中,xi是?在第i个特征上的取值,线性模型试图学得一个通过特征的线性组合来进行预测的函数,即
f(x)=w1∗x1+w2∗x2+......+an∗xn+bf(x) = w_{1}*x_{1} + w_{2}*x_{2} +......+ a_{n}*x_{n}+bf(x)=w1x1+w2x2+......+anxn+b
b=w0∗x0b=w_{0}*x_{0} b=w0x0 其中x0=1x_{0}=1x0=1因此,f(x)可以表达成如下的形式: f(x)=WT∗Xf(x)=W^T*Xf(x)=WTX
  对于上述模型的参数W该如何求解呢?首先我们先定义出其损失函数即目标函数如下:
min(J(w0,w1,.....,wn)=12m∑i=1m(fw(x(i))−y(i))2min(J(w_{0},w_{1},.....,w_{n})=\frac{1}{2m}\sum_{i=1}^{m}(f_{w}(x^{(i)})-y^{(i)})^2min(J(w0,w1,.....,wn)=2m1i=1m(fw(x(i))y(i))2
  要使得目标函数最小,有两种求解方式:(1)最小二乘法 (2)梯度下降

(1)最小二乘与线性回归:
  令损失函数对参数W求偏导,并令其等于0,求得:
W=(XTX)−1XTYW=(X^TX)^{-1}X^TYW=(XTX)1XTY
(2) 梯度下降:
step1:初始化参数W
step2:
  repeat: wj:=wi−α1m∑(fw(x(i))−y(i))xj(i)w_{j}: = w_{i} -\alpha\frac{1}{m}\sum(f_{w}(x^{(i)})-y^{(i)})x_{j}^{(i)}wj:=wiαm1(fw(x(i))y(i))xj(i)

关于最小二乘,梯度下降的具体推导过程请看本博客中的相关章节。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值