1. 回归

2. 常用的回归
2.1 经典统计学模型
其实这里不好说什么统计学模型和机器学习模型,因为想PCA、logistic也是机器学习热门的模型。我就这么写吧,佛系分个类。
那个最小二乘我就先不推导了,打公式麻烦。有空再打吧。不过捏,这个基本推导烂熟于心要要要。
| 回归名称 | 描述 |
|---|---|
| 非线性回归 | 那就先想办法变成线性的,比如取对数的方法。不行的话就按照非线性最小二乘估计求解。 |
| logistic | 这个真的太常用,很好用。因变量是分类型的就可以使用。是个概率模型。 |
| 岭回归 | 是对最小二乘估计的改进,损失函数加了惩罚项。L2范数。 |
| lasso | 损失函数加了惩罚项的L1范数 |
| 主成分回归 | 对于共线性较强的线性模型的改进,有偏估计。 |
2.2 机器学习模型
sklearn内部有常用的几个回归算法:
| 模块名称 | 函数名 | 算法名 |
|---|

本文介绍了机器学习中的回归和分类模型。回归部分包括经典统计学模型如最小二乘法,以及机器学习模型如lasso-logistic、GBDT、xgboost等,并提到常用评价指标为均方误差。分类模型部分则讨论了常用模型及基于混淆矩阵的评价体系。
最低0.47元/天 解锁文章
5万+

被折叠的 条评论
为什么被折叠?



