- 博客(8)
- 收藏
- 关注
原创 机器学习-支持向量机(SVM)
支持向量机算法可以解决小样本情况下的机器学习问题,简化了通常的分类和回归等问题。由于采用核函数方法克服了维数灾难和非线性可分的问题,所以向高维空间映射时没有增加计算的复杂性。换句话说,由于支持向量计算法的最终决策函数只由少数的支持向量所确定,所以计算的复杂性取决于支持向量的数目,而不是样本空间的维数。支持向量机算法利用松弛变量可以允许一些点到分类平面的距离不满足原先要求,从而避免这些点对模型学习的影响。支持向量机算法对大规模训练样本难以实施。
2022-12-13 00:03:06
2565
1
原创 机器学习-逻辑回归(Logistic regression)
什么是Logistic回归基于Logistic回归和Sigmoid函数的分类 基于最优化方法的最佳回归系数确定梯度上升法梯度上升算法实现画出决策边界完整代码总结Logistic回归(logistic regression)是统计学习中的经典分类方法,实际上是在用线性回归模型的预测结果去逼近真实标记的对数几率,有的教材也称Logistic回归为对数几率回归。这里要注意,虽然带有回归的字眼,但是该模型是一种分类算法,Logistic回归是一种线性分类器,针对的是线性可分问题。利用Logistic回归进行分类
2022-12-04 14:12:18
631
原创 机器学习-基于朴素贝叶斯的垃圾邮件分类
概率论是许多机器学习算法的基础,此篇博客会给出一些使用概率论进行分类的方法。首先从一个最简单的概率分类器开始,然后给出一些假设来学习朴素贝叶斯分类器。我们称之为“朴素”,是因为整个形式化过程只做最原始、最简单的假设。我们还将构建另一个分类器,观察其在真实的垃圾邮件数据集中的过滤效果。
2022-11-27 14:45:21
3370
原创 机器学习-决策树(Decision Tree)进阶篇之剪枝
剪枝(pruning)是决策树学习算法对付“过拟合”的主要手段。决策树剪枝的基本策略有“预剪枝”(prepruning)和“后剪枝”(postpruning)。预剪枝是指在决策树生成过程中,对每个结点在划分前先进行估计,若当前结点得划分不能带来决策树泛化性能提升,则停止划分并将当前结点标记为叶结点后剪枝则是先从训练集生成一棵完整的决策树,然后自底向上地对非叶结点进行考察,若将该结点对应的子树替换为叶结点能带来决策树泛化性能提升,则将该子树替换为叶结点。
2022-11-20 19:53:16
3504
1
原创 机器学习-决策树(Decision Tree)基础篇
{'月平均花费': {1: {'家庭平均收入': {1: {'住宿费': {1: 1, 2: 1, 3: 1}}, 2: {'住宿费': {2: 1, 3: 1}}, 3: {'住宿费': {1: 1, 2: 1, 3: 1}}}}, 2: {'住宿费': {1: {'家庭平均收入': {2: 1, 3: 0}}, 2: {'家庭平均收入': {1: 1, 2: 1, 3: 1}}, 3: {'家庭平均收入': {1: 1, 2: 0}}}}, 3: 0}}”,最后,我们得出最终决策:这是个好瓜。
2022-11-14 18:10:02
1588
原创 机器学习-k近邻算法(kNN算法)的进一步实现
由此可见,k值的选择是k近邻算法的要素之一,因为k取不同的值,测试结果也不同。不能说k值越小越好,当然也不是越大越好,k值太小,模型容易过拟合,k值太大错误率也会升高。因此,选择合适的k值对我们的模型会有很大的帮助!t=M85B机器学习-k近邻算法及简单实现https://blog.youkuaiyun.com/m0_52053228/article/details/127527163?
2022-10-30 23:47:09
529
原创 机器学习-k近邻算法(kNN算法)及简单实现
k-近邻(k-Nearest Neighbor,简称kNN)是一种常用的监督学习方法,其工作机制非常简单:给定测试样本,基于某种距离度量找出训练集中与其最靠近的k个训练样本,然后基于这k个“邻居”的信息来进行预测,选择这k个样本中出现最多的类别标记作为预测结果。,其类型属于图书馆,而k-近邻算法不会,因为在它眼里,建筑类型只有食堂和教学楼,它会提取样本集中特征最相似数据(最邻近)的分类标签,得到的结果可能是食堂,也可能是教学楼,但绝不会是图书馆。开始,随着k的逐渐增大,k近邻算法的分类效果会逐渐提升;
2022-10-26 14:48:42
1207
原创 机器学习-Precision(查准率)、Recall(查全率)、P-R曲线
我们经常会关心“检索出的信息中有多少比例是用户感兴趣的”“用户感兴趣的信息中有多少被检索出来了”。“查准率”(precision)与“查全率”(recall)是更为适用于此类需求的性能度量。一、查准率P、查全率R与P-R曲线P-R图直观地显示出学习器在样本总体上的查全率、查准率。本文章仅简单概述了Precision、Recall以及P-R曲线的概念以及如何用Python绘制P-R曲线,作者目前也是机器学习小白,希望可以同大家一起进步!
2022-10-19 22:22:45
5098
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅