
机器学习
文章平均质量分 70
白十月
商科转码的成长记录~~奥力给!
展开
-
pytorch widedeep文档
value_counts( )函数value_counts()是一种查看表格某列中有多少个不同值的快捷方法,并计算每个不同值有在该列中有多少重复值。参数设置sort=True: 是否要进行排序;默认进行排序ascending=False: 默认降序排列;normalize=False: 是否要对计算结果进行标准化并显示标准化后的结果,默认是False。bins=None: 可以自定义分组区间,默认是否;dropna=True:是否删除缺失值nan,默认删除category_encoders是原创 2022-08-06 10:47:16 · 904 阅读 · 0 评论 -
shap库源码和代码实现
summary plot 为每个样本绘制其每个特征的SHAP值,这可以更好地理解整体模式,并允许发现预测异常值。每一行代表一个特征,横坐标为SHAP值。一个点代表一个样本,颜色表示特征值(红色高,蓝色低)。比如,这张图表明LSTAT特征较高的取值会降低预测的房价结合了特征重要度和特征的影响。摘要图上的每个点都是一个特征和一个实例的Shapley值,y轴上的位置由特征决定,x轴上的位置由Shapley值决定,颜色代表特征值从小到大,重叠点在y轴方向上抖动,因此我们可以了解每个特征的Shapley值的分布。..原创 2022-08-06 10:45:24 · 6152 阅读 · 0 评论 -
autogluon安装,使用指南,代码
安装教程:https://www.bilibili.com/video/BV1yL4y177hH?vd_source=89df2f1167217f99860c89a58a28438d安装Q&A:https://auto.gluon.ai/stable/install.html#installation-faq安装报错:Consider using the option or check the permissions.解决方法:https://www.cnblogs.com/wanghui-ga原创 2022-08-06 10:44:21 · 1549 阅读 · 0 评论 -
集成学习bagging,boosting,gbdt,xgboost比较和代码实现
集成学习根据各个弱分类器之间有无依赖关系,分为Boosting和Bagging两大流派:1. Boosting流派,各分类器之间有依赖关系,必须串行,比Adaboost、GBDT(Gradient Boosting Decision Tree)、Xgboost2. Bagging流派,各分类器之间没有依赖关系,可各自并行,比如随机森林(Random Forest)3.特点:* 有放回的随机采样,(每次大概会采样63%的样本)* 不稳定—>适合作为基分类器目标:降低方差bagging的扩展变体,样原创 2022-06-09 22:27:37 · 415 阅读 · 0 评论 -
迁移学习入门(一)
迁移学习(Transfer Learning,TL)能让现有的模型算法稍加调整即可应用于一个新的领域和功能的一项技术。微调如图所示,微调由以下4步构成。1.在源数据集(如ImageNet数据集)上预训练一个神经网络模型,即源模型。2.创建一个新的神经网络模型,即目标模型。它复制了源模型上除了输出层外的所有模型设计及其参数。我们假设这些模型参数包含了源数据集上学习到的知识,且这些知识同样适用于目标数据集。我们还假设源模型的输出层与源数据集的标签紧密相关,因此在目标模型中不予采用。3.为目标模型添原创 2021-07-29 21:52:23 · 279 阅读 · 0 评论 -
python的scikit-learn机器学习库实现kmeans聚类(参数、方法、实例、评估)
本文主要为scikit-learn中kmeans的介绍kmeans主要参数n_clusters: k值max_iter:最大迭代次数。 如果数据集不是凸集,可能很难收敛,此时可以通过指定最大的迭代次数让算法可以及时退出循环。n_init:使用不同的初始化质心运行算法的次数。由于K-Means的结果会受初...原创 2020-04-02 11:17:30 · 4130 阅读 · 0 评论