机器学习之线性回归

线性回归

在机器学习中回归是求学者在学习过程中重要的一环。无论是面试还是实际应用都会经常用到。有很多人会使用线性回归,但却不知道线性回归是怎么来的。如果想让自己在机器学习的方向上更有价值,数学方面的推导必不可少。下面就是我在自己理解的线性回归推导。

什么是回归?

通过现有的数据最终预测出来在指定区间的某一个值 我们称之为回归

贷款栗子

这里写图片描述

解释
数据:

上图为五个人在银行贷款的样本,其中工资和年龄我们都称为特征(2个特征)

目标:

预测银行会贷款给我多少钱(标签)

考虑:

工资和年龄都会影响最终银行贷款的结果,那么他们各自有多大的影响呢(参数)

通俗解释:

X1,X2就是我们的两个特征(年龄,工资) Y是银行最终借给我们多少钱
找到最合适的一条线来最好的拟合我们的数据点

数学来了

假设 Θ1是年龄的权重, Θ2是工资的权重,Θ0是偏置项

拟合的平面:

Θ0 +  Θ1x1 +  Θ2x2
整合:
这里写图片描述

误差

在这里插入图片描述

真实值和预测值之间肯定是要存在差异的(用 ε来表示该误差)

对于每个样本方程:

这里写图片描述

这里写图片描述
误差独立并且具有同分布,并且服从均值为0方差为这里写图片描述的高斯分布

独立:张三和李四一起来贷款,他俩都是独立的互不影响

同分布:张三和李四来的都是在同一家银行贷款 用的用一套贷款算法

高斯分布:银行可能会多给,也可能会少给,但是绝大多数情况下这个浮动不会太
大,极小情况下浮动会比较大,符合正常情况

误差服从高斯分布:
这里写图片描述
将预测值式子带入高斯分布式子:
这里写图片描述

似然函数(最大似然估计):
似然函数的理解:

什么样的数据跟参数组合后成为真实值的概率最大

方程:

这里写图片描述

对数似然:
为什么会用到对数似然

乘法难解,加法就容易了,对数里面乘法可以转换成加法

方程:

这里写图片描述

化简:
这里写图片描述

目标函数:

让似然函数(对数变换后也一样)越大越好 让预测值成为真实值得可能性越大越好(最小二乘法)

展开转置成自身
这里写图片描述

求偏导:
这里写图片描述
什么样的Θ能够使得整体的表达式的值越小越好(极小值点)
偏导等于0的位置满足这个条件

偏导等于0:
这里写图片描述

评估方法

最常用的评估项:

这里写图片描述

残差平方和:预测值和真实值之间的差异
R方约等于1:好
R方约等于0:不好

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

爱python的王三金

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值