集成学习
清水湾的水
数据分析 机器学习 神经网络 大数据分析
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
2021-07-29
集成学习7这是一个水卡, 等以后补充文章目录集成学习7如何取出有空值的所有行如何取出有空值的所有行df.loc[df.isnull().T.any(), :]原创 2021-07-29 21:46:14 · 104 阅读 · 0 评论 -
2021-07-26
集成学习6文章目录集成学习61. Adaboost的基本思路2. Adaboost 与 GBDT 的联系与区别3. Boost 与 Bagging 的区别, 以及如何提升模型的精度4. 使用基本分类模型和Boosting提升的模型,并画出他们的决策边界1. Adaboost的基本思路AdaBoost是一种精度提升算法(Boosting Algorithm), 主要用来解决分类预测的问题。它会逐个训练单个的分类器,调整每个单个分类器的精度,之后把若干个单个的分类器组合成一个复合分类器。通常我们把这些单原创 2021-07-26 01:01:50 · 151 阅读 · 0 评论 -
2021-07-22
集成学习 5文章目录集成学习 51. 什么是bootstraps2. bootstraps与bagging的联系3. 随机森林与bagging的联系与区别4. 请尝试使用bagging 与基本分类模型或者回归模型做对比,观察bagging是否相对于基础模型的精度有所提高?1. 什么是bootstrapsBootstrap又称自展法,是用小样本估计总体值的一种非参数方法,在进化和生态学研究中应用十分广泛。例如进化树分化节点的自展支持率等。Bootstrap的思想,是生成一系列bootstrap伪样原创 2021-07-22 22:18:22 · 183 阅读 · 0 评论 -
2021-07-20
集成学习4文章目录集成学习41. 回归问题和分类问题的联系和区别,如何利用回归问题理解分类问题?2. 为什么分类问题的损失函数可以是交叉熵而不均方误差?3. 线性判别分析和逻辑回归在估计参数方面有什么异同点?4. 使用python + numpy 实现逻辑回归。1. 回归问题和分类问题的联系和区别,如何利用回归问题理解分类问题?分类是关于预测标签,而回归是关于预测数量。通过设定阈值可以利用回归算法解决分类问题。2. 为什么分类问题的损失函数可以是交叉熵而不均方误差?使用交叉熵损失函数,误差越原创 2021-07-21 00:23:42 · 123 阅读 · 0 评论 -
2021-07-19
集成学习3文章目录集成学习31. 什么是偏差和方差2. 偏差,方差 和误差的关系3. 如果使用pca降维前是一个三维的椭球,那么把该图形降维成二维是一个什么样的图形?4. 尝试使用sklearn,对一组数据先进行特征的简化(使用三种方式),再使用回归模型,最后使用网格搜索调参,观察三种方法的优劣。1. 什么是偏差和方差偏差是指预测结果与真实值之间的差异,排除噪声的影响,偏差更多的是针对某个模型输出的样本误差,偏差是模型无法准确表达数据关系导致,比如模型过于简单,非线性的数据关系采用线性模型建模,偏原创 2021-07-19 02:45:12 · 170 阅读 · 0 评论 -
2021-07-15
集成学习2文章目录集成学习2在线性回归模型中,极大似然估计与最小二乘估计有什么联系与区别?为什么多项式回归在实际问题中的表现经常不是很好?决策树模型与线性模型之间的联系与差别?为什么要引入原问题的对偶问题?用numpy 实现线性回归1.读入数据2.读入数据在线性回归模型中,极大似然估计与最小二乘估计有什么联系与区别?最小二乘估计,最合理的参数估计量应该使得模型能最好地拟合样本数据,也就是估计值和观测值之差的平方和最小。最大似然法,最合理的参数估计量应该使得从模型中抽取该n组样本观测值的概率最大,原创 2021-07-16 00:02:12 · 174 阅读 · 2 评论 -
2021-07-14
集成学习一最小解发现1)a,b 取值不同2) 编写一个算法来找到它的全局最小值及相应的最小解,并在3D图中标出。分析一下你的算法时空效率、给出运行时间。最小解发现给定下述Rosenbrock函数,fx=(a-x1)2+b(x2-x12)**2 ,其中 x=(x1,x2) 属于R,a,b 属于R 。试编写程序完成下述工作:1)a,b 取值不同为不同的a,b取值,绘制该函数的3D表面。请问 a,b取值对该表面形状有大的影响吗?,所谓大影响就是形状不再相似。对a,b的取值区间,能否大致给出一个分类,像下面原创 2021-07-14 07:07:10 · 122 阅读 · 0 评论
分享