- 博客(4)
- 收藏
- 关注
原创 adaboost集成算法原理
adaboost集成算法原理adaboost目的是将多个弱分类器组合成一个强分类器。原理讲解如下:具体说来,整个Adaboost 迭代算法就3步:1.初始化训练数据的权值分布。如果有N个样本,则每一个训练样本最开始时都被赋予相同的权值:1/N。2.训练弱分类器。具体训练过程中,如果某个样本点已经被准确地分类,那么在构造下一个训练集中,它的权值就被降低;相反,如果某个样本点没有被准确地分类,那么它的权值就得到提高。然后,权值更新过的样本集被用于训练下一个分类器,整个训练过程如此迭代地进行下去。3.
2021-05-11 18:08:52
421
原创 整理最近学习的算法:SVM支持向量机(简单)、kappa值、ROC曲线和AUC值
最近学习到的算法1.kappa系数检验一致性下面给出公式:其中,p0是每一类正确分类的样本数量之和除以总样本数,也就是总体分类精度 。假设每一类的真实样本个数分别为a1,a2,…,aC,而预测出来的每一类的样本个数分别为b1,b2,…,bC总样本个数为n,则有:kappa计算结果为-1-1,但通常kappa是落在 0-1 间,可分为五组来表示不同级别的一致性:0.0-0.20极低的一致性(slight)、0.21-0.40一般的一致性(fair)、0.41-0.60 中等的一致性(moder
2021-05-09 14:37:55
3227
原创 python3.7版本tensorflow安装(简单)
最近想要研究一下深度学习的应用,于是翻了翻了社区的tensorflow安装教程。发现许多教程适用性好像不是太强,就算完全按照安装步骤来也会卡到不知道哪一步??想必小白们也会遇到许多这样的问题,这个问题困扰了我整整两天。于是打算放弃网上的主流方法,自己下载package安装。最终结果也最终得偿所愿,下面我将分享一下我的安装完全步骤,首先声明本教程不涉及安装anaconda。所以如果有anaconda安装需求请不要浪费您的时间,出门右拐!!!比如本人觉得比较认真的一篇博文https://www.cnblogs
2020-11-03 23:10:49
20497
11
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人