Machine learning--线性回归

线性回归详解
本文深入解析了线性回归的基本概念,包括一元和多元线性回归的区别,假设函数的定义及作用,代价函数的计算方式及其意义,以及如何通过梯度下降算法找到最优参数,实现模型训练。

线性回归

定义:线性回归是利用数理统计中回归分析,来确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法,运用十分广泛。其表达形式为y = w’x+e,e为误差服从均值为0的正态分布。白话版:当曲线为一条直线是,就是线性回归,线性是指特征和结果都是线性的,即x不大于1次方。
回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。如果回归分析中包括两个或两个以上的自变量,且因变量和自变量之间是线性关系,则称为多元线性回归分析。

假设函数

定义:把我们训练集里面的数据,放入我们的函数里面,使函数的输出结果,和我们的预期的结果的差值比较少,而这个函数就是我们的假设函数
公式hθ(x)=θ+θ1xh_\theta(x) = \theta + \theta_1xhθ(x)=θ+θ1x
注意:因为只含有一个特征/输入变量,因此这样的问题叫做单变量线性回归方程

代价函数

模型所预测的值与训练集中实际值之间的差距,就是建模误差
我们的目标是选择出可以使的建模误差的平方和能够最小的模型参数,就叫代价函数,代价函数也被称作平方误差函数,有时也被称为平方误差代价函数
公式J(θ0,θ1)=12m∑i=1m(hθ(x(i))−y(i))2J(\theta_0,\theta_1) = \frac{1}{2m}\sum\limits_{i = 1}^m(h_\theta(x^{(i)}) - y^{(i)})^2J(θ0,θ1)=2m1i=1m(hθ(x(i))y(i))2

梯度下降

定义:梯度下降是一个用来求函数最小值的算法,我们将使用梯度下降算法来求出代价函数J(θ0,θ1)J(\theta_{0}, \theta_{1})J(θ0,θ1) 的最小值。
公式
∂∂θjJ(θ0,θ1)=∂∂θj12m∑i=1m(hθ(x(i))−y(i))2\frac{\partial }{\partial {{\theta }_{j}}}J({{\theta }_{0}},{{\theta }_{1}})=\frac{\partial }{\partial {{\theta }_{j}}}\frac{1}{2m}{{\sum\limits_{i=1}^{m}{\left( {{h}_{\theta }}({{x}^{(i)}})-{{y}^{(i)}} \right)}}^{2}}θjJ(θ0,θ1)=θj2m1i=1m(hθ(x(i))y(i))2

j=0j=0j=0 时:∂∂θ0J(θ0,θ1)=1m∑i=1m(hθ(x(i))−y(i))\frac{\partial }{\partial {{\theta }_{0}}}J({{\theta }_{0}},{{\theta }_{1}})=\frac{1}{m}{{\sum\limits_{i=1}^{m}{\left( {{h}_{\theta }}({{x}^{(i)}})-{{y}^{(i)}} \right)}}}θ0J(θ0,θ1)=m1i=1m(hθ(x(i))y(i))

j=1j=1j=1 时:∂∂θ1J(θ0,θ1)=1m∑i=1m((hθ(x(i))−y(i))⋅x(i))\frac{\partial }{\partial {{\theta }_{1}}}J({{\theta }_{0}},{{\theta }_{1}})=\frac{1}{m}\sum\limits_{i=1}^{m}{\left( \left( {{h}_{\theta }}({{x}^{(i)}})-{{y}^{(i)}} \right)\cdot {{x}^{(i)}} \right)}θ1J(θ0,θ1)=m1i=1m((hθ(x(i))y(i))x(i))

则算法改写成:

Repeat {

θ0:=θ0−a1m∑i=1m(hθ(x(i))−y(i)){\theta_{0}}:={\theta_{0}}-a\frac{1}{m}\sum\limits_{i=1}^{m}{ \left({{h}_{\theta }}({{x}^{(i)}})-{{y}^{(i)}} \right)}θ0:=θ0am1i=1m(hθ(x(i))y(i))

θ1:=θ1−a1m∑i=1m((hθ(x(i))−y(i))⋅x(i)){\theta_{1}}:={\theta_{1}}-a\frac{1}{m}\sum\limits_{i=1}^{m}{\left( \left({{h}_{\theta }}({{x}^{(i)}})-{{y}^{(i)}} \right)\cdot {{x}^{(i)}} \right)}θ1:=θ1am1i=1m((hθ(x(i))y(i))x(i))

}

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值