机器学习
dean1977a
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习评估指标 AUC 综述
在互联网的排序业务中,比如搜索、推荐、广告等,AUC ( Area under the Curve of ROC ) 是一个非常常见的评估指标。网上关于 AUC 的资料很多,知乎上也有不少精彩的讨论,本文尝试基于自身对 AUC 的理解做个综述,水平有限,欢迎指出错误。俗话说,提出正确的问题就成功了一半,本文先提出以下几个问题,希望大家读完能够加深对下列问题的理解。AUC 有几种理解?AUC...转载 2019-10-12 09:26:19 · 1248 阅读 · 0 评论 -
特征选择 (feature_selection)
转自:http://www.cnblogs.com/stevenlk/p/6543628.html当数据预处理完成后,我们需要选择有意义的特征输入机器学习的算法和模型进行训练。通常来说,从两个方面考虑来选择特征:特征是否发散:如果一个特征不发散,例如方差接近于0,也就是说样本在这个特征上基本上没有差异,这个特征对于样本的区分并没有什么用。 特征与目标的相关性:这点比较显见,与目标相关性高...转载 2019-04-13 22:32:41 · 728 阅读 · 0 评论 -
决策树
---------------------作者:braveryCHR原文:https://blog.youkuaiyun.com/bravery_again/article/details/81104914定义决策树是一种常见的机器学习算法,它的思想十分朴素,类似于我们平时利用选择做决策的过程。例如有人给我们介绍新的对象的时候,我们就要一个个特点去判断,于是这种判断的过程就可以画成一棵树,...转载 2019-04-18 13:45:43 · 501 阅读 · 0 评论 -
xgboost原理及应用--转
1.背景关于xgboost的原理网络上的资源很少,大多数还停留在应用层面,本文通过学习陈天奇博士的PPT地址和xgboost导读和实战地址,希望对xgboost原理进行深入理解。2.xgboost vs gbdt说到xgboost,不得不说gbdt。了解gbdt可以看我这篇文章地址,gbdt无论在理论推导还是在应用场景实践都是相当完美的,但有一个问题:第n颗树训练时,需要用到第n-...转载 2019-04-19 11:46:47 · 279 阅读 · 0 评论 -
七月在线--金融风控实战--第六课 风控数据挖掘方法--课程笔记
XGBoost 对于 GBDT 的改进1.传统GBDT以CART作为基分类器,xgboost还支持线性分类器,这个时候xgboost相当于带L1和L2正则化项的逻辑斯蒂回归(分类问题)或者线性回归(回归问题)。2.传统GBDT在优化时只用到一阶导数信息,xgboost则对代价函数进行了二阶泰勒展开,同时用到了一阶和二阶导数。顺便提一下,xgboost工具支持自定义代价函数,只要函数可一阶和二阶...转载 2019-06-11 23:48:22 · 1108 阅读 · 0 评论
分享