机器学习深版02:回归

机器学习深版02:回归

1. 线性回归 Linear regression

1. 误差服从高斯分布(正态分布)、最小二乘法本质

在这里插入图片描述
均值是0,方差是xx方
中心极限定理的意义:实际问题中,很多随机现象可以看做众多因素的独立影像的综合反应,往往近似服从正态分布。
在这里插入图片描述
这样就是给定一个x(i),就能得到一个y(i)的概率密度。
因为他们是独立的,所以联合概率就是直接每个乘起来,得到似然函数。
在这里插入图片描述
取他们的对数似然,得到结果,然后取最大值,即最后一行取最小。
发现:这就是最小二乘估计,相当于这样使用是默认了服从高斯分布。

2. 聊聊“假设”

  1. 内涵性:应该是正确的,而不是绝对正确
  2. 简化性:只是接近真实,是被简化过的
  3. 发散性:在某个简化的假设下推导得到的结论,不一定只有假设的情况下才成立

3. 最小二乘法的本质(矩阵)(续1.)

假定样本服从高斯分布,样本相互独立,用似然估计,得出
在这里插入图片描述
emm计算的草稿,最终推导出来参数的解析式:
在这里插入图片描述
如果不可逆,增加扰动。

4. 岭回归(Ridge回归)

因为不想让参数过大,加了L2正则项的最小二乘估计:
在这里插入图片描述

5. 套索回归 LASSO

做了L1正则。
实验出来,好像做了特征选择一样,高阶的特征的参数基本上是0。
在这里插入图片描述

6. 弹性网络ElasticNet(L1和L2正则的结合体)

在这里插入图片描述

7. 机器学习与数据使用

在这里插入图片描述
在这里插入图片描述
上面这个超参数,需要自己指定,通过实验来确定更好的值。

8. SVD计算矩阵的广义逆

在这里插入图片描述
一种求参数“seta”的方式

9. 梯度下降算法

求偏导
在这里插入图片描述
梯度下降可能得到最优解,但是线性回归只有一个最优解,所以~

1. BGD:批量梯度下降算法

在这里插入图片描述
所有样本加起来做的,所以是批处理的

2. SGD(随机梯度下降)

在这里插入图片描述
与BGD相比,优先使用SGD

3. mini-batch-SGD

在这里插入图片描述
这个用的最多。

10.TSS、RSS、R方、ESS

在这里插入图片描述

11.局部加权回归

在这里插入图片描述

2. Logistic回归

1. 推导过程

参考博文:https://www.cnblogs.com/yinheyi/p/6131262.html
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.线性回归与Logistic回归

线性回归:假定模型服从高斯分布,用极大似然估计推导
Logistic回归:假定模型服从二项分布,用极大似然估计推导(MLE)
但最终得到的学习规则在形式上是一致的。

3. 对数线性模型

在这里插入图片描述
反过来看,可以由上述来推导出sigmoid函数:
在这里插入图片描述

3. 损失函数

在这里插入图片描述

3. 多分类:Softmax回归

参考博文:https://www.cnblogs.com/yinheyi/p/6131262.html
在这里插入图片描述

4. ROC曲线,AUC:曲线下的面积

在这里插入图片描述
TPR:实际为正预测为正 / 实际为正
FPR:实际为负预测为正的 / 实际是负
上图2*2的矩阵就是混淆矩阵
最小是0.5,最大是1:如果比0.5小,这说明这模型没啥意义

5. 自回归

我和前几天的数据是相关的还是线性相关。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值