集成学习
文章平均质量分 59
DataVVhale
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Ensemble Learning Task 15
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 15 的主要学习内容是蒸汽量预测案例分析目录背景介绍数据信息评价指标数据字典数据分布核密度估计相关性矩阵归一化特征工程模型搭建与集成背景介绍火力发电的基本原理是:燃料在燃烧时加热水生成蒸汽,蒸汽压力推动汽轮机旋转,然后汽轮机带动发电机旋转,产生电能。在这一系列的能量转化中,影响发电效率的核心是锅炉的燃烧效率原创 2021-05-23 23:37:36 · 424 阅读 · 0 评论 -
Ensemble Learning Task 14
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 14 的主要学习内容是 幸福感预测案例分析原创 2021-05-18 22:35:23 · 194 阅读 · 0 评论 -
Ensemble Learning Task 13
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 12 的主要学习内容是 Stacking集成学习算法Stacking集成学习算法算法步骤优缺点算法步骤相较于blending算法,stacking优缺点...原创 2021-05-13 20:55:19 · 167 阅读 · 0 评论 -
Ensemble Learning Task 12
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 12 的主要学习内容是 Blending集成学习算法Blending集成学习算法算法步骤优缺点算法步骤优缺点原创 2021-05-11 22:52:41 · 202 阅读 · 0 评论 -
Ensemble Learning Task 11
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 10 的主要学习内容是 XGBoost 和LightGBM 算法XGBoost 和LightGBM 算法XGBoostLightGBMXGBoost基于GBDT算法框架,陈天奇开发了对于GBDT框架进行高效实现的XGBoost算法。具体优势体现在以下几点:在XGBoost中,算法的目标函数包括了样本的损原创 2021-04-26 21:43:00 · 225 阅读 · 0 评论 -
Ensemble Learning Task 10
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 10 的主要学习内容是 前向分布算法与梯度提升决策树前向分布算法与梯度提升决策树1. 前向分布算法1.1 加法模型1.2 前向分布算法2梯度提升决策树(GBDT)2.1 基于残差学习的提升树算法2.2 梯度提升决策树算法(GBDT)1. 前向分布算法1.1 加法模型加法模型的基本思想是将不同的模型线性相加原创 2021-04-23 23:48:09 · 283 阅读 · 0 评论 -
Ensemble Learning Task 9
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 9 的主要学习内容是 Boosting的思路与Adaboost算法Boosting的思路与Adaboost算法Boosting与Adaboost的关系Boosting思路Adaboost算法Boosting与Adaboost的关系Boosting是集成学习的一种思想,是通过对弱学习器的组合来达到强学习器效原创 2021-04-20 19:09:44 · 187 阅读 · 0 评论 -
Ensemble Learning Task 8
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 8 的主要学习内容是 Bagging的原理与案例分析BaggingBagging与投票法的区别原理算法应用案例——随机森林Bagging与投票法的区别与投票法仅仅集成各个模型的预测结果不同,bagging会采用一定的策略来影响基模型的训练,即通过不同的采样增加模型的差异性原理Bagging 核心在于自原创 2021-04-17 22:24:14 · 173 阅读 · 0 评论 -
Ensemble Learning Task 7
学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 6 的主要学习内容是 投票法与bagging投票法投票法主要思想优化条件局限性Bagging与投票法的区别原理算法应用案例——随机森林投票法主要思想投票法的主要思想是:少数服从多数,这种集成学习思想在回归与分类问题上都可以使用。其分类大致如下:优化条件为了使投票法产生较好的结果,需要满足一定的条件:原创 2021-04-14 15:19:29 · 285 阅读 · 0 评论 -
Ensemble Learning Task 6
Ensemble Learning Task 6学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 6 的主要学习内容是 评估模型的性能并调参这一章内容很少,主要包括以下几个部分:用管道简化工作流使用k折交叉验证评估模型性能使用学习和验证曲线调试算法通过网格搜索进行超参数调优比较不同的性能评估指标pipeline能够将一系列操作封装成一个工作流原创 2021-03-29 22:35:53 · 174 阅读 · 0 评论 -
Ensemble Learning Task 5
Ensemble Learning Task 5学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 5 的主要学习内容是 使用sklearn构建完整的分类项目具体内容包括了基础的模型构建步骤:数据准备选择度量模型性能的指标选择具体的模型并进行训练我们使用了sklearn内置的iris数据作为本项目的数据集,ROC曲线作为最终评价指标。模型的选择包原创 2021-03-26 16:09:03 · 147 阅读 · 0 评论 -
Ensemble Learning Task 4
Ensemble Learning Task 4学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 4 的主要学习内容是 模型超参调优具体包含了网格搜索与随机搜索两种调参方法。网格搜索网格搜索通过对所有超参进行排列组合,尝试所有的超参可能性。这种调参方法能够得到更优的结果,但同时也带来了巨大的计算消耗。因此比较适合在小数量集上使用。随机搜索随机搜索相原创 2021-03-24 19:04:47 · 178 阅读 · 0 评论 -
Ensemble Learning Task 3
Ensemble Learning Task 3学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 3 的主要学习内容是 掌握偏差与方差理论这一部分内容主要是优化基础模型,分为以下几个部分:训练均方误差与测试均方误差偏差方差的权衡特征提取压缩估计(正则化)降维第一部分主要是通过对训练与测试的均方误差进行比较,从评价指标的角度对过拟合现象进行深入原创 2021-03-22 23:56:23 · 182 阅读 · 0 评论 -
Ensemble Learning Task 2
Ensemble Learning Task 2学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 2 的主要学习内容是 使用sklearn构建完整的回归项目收集数据集并选择合适的特征选择度量模型性能的指标选择具体的模型并进行训练一般来说,一个完整的机器学习项目分为以下步骤:明确项目任务:回归/分类收集数据集并选择合适的特征。选择度量模型性原创 2021-03-18 18:06:43 · 161 阅读 · 0 评论 -
Ensemble Learning Task 1
Ensemble Learning Task 1 Day 1学习地址:https://github.com/datawhalechina/team-learning-data-mining/tree/master/EnsembleLearningTask 1 的主要学习内容是机器学习问题三大基础方向。回归分类无监督不是很清楚为什么这里要这么分,通常如果按照数据集特征进行问题划分的话,会有监督、无监督、半监督等多个分类。同时,分类问题在一定程度上可以看做是回归问题在特定阈值下的特殊呈现方式。原创 2021-03-15 22:28:21 · 170 阅读 · 0 评论
分享