
机器学习Machine learning
机器学习Machine learning
别说话写代码
这个作者很懒,什么都没留下…
展开
-
安装automl包h2o
pip install requestspip install tabulatepip install scikit-learnpip install -f http://h2o-release.s3.amazonaws.com/h2o/latest_stable_Py.html h2o原创 2021-03-10 10:06:02 · 390 阅读 · 0 评论 -
什么时候需要onehot编码?什么时候需要特征归一化?
一、问题由来最近在做ctr预估的实验时,还没思考过为何数据处理的时候要先进行one-hot编码,于是整理学习如下:在很多机器学习任务如ctr预估任务中,特征不全是连续值,而有可能是分类值。如下: 分类变量(定量特征)与连续变量(定性特征)。我们训练模型的变量,一般分为两种形式。以广告收入增长率为例,如果取值为0-1之间任意数,则此时变量为连续变量。如果把增长率进行分段处理,表示成如下形式:[0,0.3],(0.3,0.6],(0.6,1],那么此时变量为分类变量。...转载 2020-10-09 10:05:25 · 3821 阅读 · 0 评论 -
机器学习面试题面经
KNN:特点是完全跟着数据走,没有数学模型可言。适用:需要一个容易解释的模型的时候,比如需要向用户解释原因的推荐算法。 感知机 贝叶斯:核心是根据条件概率计算待判断点的类型。适用:易解释,而且不同维度之间相关性较小的模型。可以处理高维数据,虽然效果一般。 逻辑回归 决策树:适用:它能生成清晰的基于特征选择不同预测结果的树状结构,数据分析师希望更好的理解手...原创 2020-05-05 23:55:33 · 8310 阅读 · 0 评论 -
一步一步理解GB、GBDT、xgboost
转自:https://www.cnblogs.com/wxquare/p/5541414.htmlGBDT和xgboost在竞赛和工业界使用都非常频繁,能有效的应用到分类、回归、排序问题,虽然使用起来不难,但是要能完整的理解还是有一点麻烦的。本文尝试一步一步梳理GB、GBDT、xgboost,它们之间有非常紧密的联系,GBDT是以决策树(CART)为基学习器的GB算法,xgboost扩展和改进...转载 2018-10-02 15:50:07 · 269 阅读 · 0 评论 -
ROC与AUC的定义与使用详解
转自:https://blog.youkuaiyun.com/shenxiaoming77/article/details/72627882https://www.cnblogs.com/king-lps/p/9501572.html分类模型评估:指标 描述 Scikit-learn函数 Precision 精准度 from sklearn.metrics import...转载 2019-01-10 19:23:56 · 1608 阅读 · 0 评论