
机器学习
文章平均质量分 94
机器学习相关知识
抱抱宝
阿里云专家博主|研究方向:大数据分析、数据挖掘、深度强化学习、运筹优化、数学建模等。
展开
-
集成学习之AdaBoost
是一种集成学习方法,它通过迭代地训练弱分类器并将它们组合成一个强分类器来提高模型的性能。AdaBoost的核心思想是每次迭代中赋予错误分类样本更高的权重,从而使得后续的弱分类器更加关注这些难分类的样本。AdaBoost可以应用于分类问题,尤其是二分类问题。本次案例分析使用的数据集包含了一系列工业机器的运行状态记录,包括机器编号、质量等级、工厂温度、机器温度、转速、扭矩、使用时长等特征,以及是否发生故障的标签。我们的任务是基于这些特征预测机器是否会故障。原创 2024-11-30 16:35:30 · 650 阅读 · 0 评论 -
集成学习之XGBoost
XGBoost(eXtreme Gradient Boosting)是一种高效的梯度提升框架,它实现了梯度提升决策树(Gradient Boosting Decision Trees, GBDT),并在此基础上进行了优化。XGBoost在许多机器学习竞赛中表现出色,因其高效性和强大的预测能力而受到广泛欢迎。XGBoost支持多种目标函数和评估指标,可以处理回归、分类以及排名等问题。原创 2024-11-30 16:33:47 · 893 阅读 · 0 评论 -
集成学习之梯度提升树
梯度提升树(Gradient Boosting Trees, GBT)是一种强大的集成学习方法,它通过迭代地添加弱预测模型来构建一个强预测模型。在每一轮迭代中,新的模型会试图纠正前序模型产生的错误。GBT可以用于回归和分类问题,并且在许多实际应用中表现优异。梯度提升树是一种非常有效的方法,尤其适用于处理复杂的数据模式。通过本文的介绍与案例分析,希望能帮助读者更好地理解这一算法,并能够在实践中加以运用。在未来的工作中,尝试不同的参数设置以及结合其他技术可能会带来更好的结果。原创 2024-11-28 14:36:24 · 1078 阅读 · 0 评论 -
集成学习之随机森林
随机森林属于集成学习(Ensemble Learning)中的一种,它是通过构建多个决策树,并综合这些决策树的预测结果来进行最终的预测。就好比一群经验丰富的专家(各个决策树)共同商讨一件事,然后汇总大家的意见(预测结果)得出最终结论,往往这样综合考量后的结果会更加准确可靠。随机森林可以用于解决分类问题,比如判断一封邮件是垃圾邮件还是正常邮件;也能处理回归问题,例如预测某地区的房价走势等。准确性高:通过集成多个决策树,减少了单个模型的偏差和方差,通常能获得比单一决策树更好的预测性能。鲁棒性强。原创 2024-11-28 14:33:25 · 950 阅读 · 0 评论 -
机器学习之t-SNE降维
t-SNE是一种非线性降维技术,主要用于高维数据的可视化。由Laurens van der Maaten和Geoffrey Hinton于2008年提出,t-SNE通过将高维数据映射到二维或三维空间,保留数据的局部结构,使得在低维空间中的数据点分布能够反映出高维空间中的相似性与簇结构。t-SNE广泛应用于图像处理、自然语言处理、生物信息学等领域的数据探索与分析。t-SNE作为一种强大的非线性降维与可视化工具,在探索高维数据结构、揭示潜在模式方面展现出显著优势。原创 2024-11-23 13:44:29 · 1195 阅读 · 0 评论 -
机器学习算法之主成分分析法(PCA)
主成分分析(PCA)是一种线性降维技术,旨在通过正交变换将高维数据投影到一个低维空间中,同时尽可能保留数据的主要信息。PCA通过找到数据中方差最大的方向(即主成分),将数据沿这些方向进行投影,从而实现降维。主成分分析(PCA)是一种强大的降维工具,通过线性变换将高维数据映射到低维空间,同时保留数据中的主要信息。在实际应用中,PCA不仅可以用于数据压缩和特征提取,还可以帮助我们更好地理解数据结构。希望通过本文的介绍和案例分析,能够让你对PCA有更深入的理解。原创 2024-11-23 13:42:53 · 2220 阅读 · 0 评论 -
快速学会一个算法:K-means聚类
K-means 是一种简单且广泛使用的聚类算法,其目的是将数据集中的样本划分为 K 个聚类,使得每个样本都属于最近的均值(即聚类中心)所代表的聚类。该算法的目标是最小化所有样本到其聚类中心的距离平方和,这也被称为惯性(inertia)。在这篇文章中,我们深入探讨了K-means聚类算法,这是一种基于距离的简单而强大的无监督学习方法。K-means算法的核心目标是将数据集中的样本划分为K个簇,使得簇内的样本尽可能相似,而簇间的样本尽可能不同。原创 2024-11-20 14:41:36 · 656 阅读 · 0 评论 -
机器学习算法之GMM聚类
高斯混合模型(GMM)是一种基于概率的聚类方法,假设数据集由多个高斯分布(也称为“成分”或“簇”)混合生成。与K-Means等传统聚类算法不同,GMM不仅考虑簇的中心,还考虑簇的形状和大小,通过估计每个数据点属于各个簇的概率,实现更为灵活和准确的聚类效果。复杂数据分布:适用于簇形状不规则、大小不一的数据集。软聚类:允许数据点属于多个簇,适用于模糊边界的聚类任务。概率解释:提供每个数据点的聚类概率,有助于后续的统计分析和决策。原创 2024-11-20 14:18:00 · 1820 阅读 · 0 评论 -
快速学会一个算法:DBSCAN聚类
DBSCAN是一种基于密度的聚类算法,其核心思想是通过密度的概念来定义簇。与传统的K-Means等算法不同,DBSCAN不需要预先指定簇的数量,而是根据数据的局部密度来进行聚类。这使得DBSCAN能够自动识别任意形状的簇,并且能够有效处理噪声数据。:邻域半径,指定数据点周围的邻域范围。MinPts:指定一个簇内至少需要包含的点数。核心点(Core Point):在该点的ε邻域内包含至少MinPts个点。边界点(Border Point)原创 2024-11-19 22:07:09 · 1159 阅读 · 0 评论 -
快速学会一个算法:层次聚类
层次聚类(Hierarchical Clustering)是一种通过构建层次结构来组织数据的聚类方法。与其他聚类算法不同,层次聚类不需要预先指定簇的数量,而是通过构建一个树状结构(树状图,Dendrogram)来展示数据的分层关系。凝聚层次聚类(Agglomerative Hierarchical Clustering):自底向上,先将每个数据点视为一个单独的簇,然后逐步合并最相似的簇,直到所有数据点合并为一个簇或达到预定的簇数量。原创 2024-11-19 22:03:56 · 778 阅读 · 0 评论 -
闭着眼学机器学习——K近邻分类
机器学习之K近邻分类原创 2024-10-10 11:21:38 · 1188 阅读 · 0 评论 -
闭着眼学机器学习——决策树分类
机器学习之决策树原创 2024-10-10 11:20:17 · 1114 阅读 · 0 评论 -
闭着眼学机器学习——支持向量机分类
机器学习之支持向量机分类原创 2024-10-10 11:19:23 · 1349 阅读 · 0 评论 -
闭着眼学机器学习——朴素贝叶斯分类
机器学习之朴素贝叶斯分类原创 2024-10-10 11:17:19 · 1364 阅读 · 0 评论 -
原来机器学习那么简单——决策树回归
机器学习之决策树回归原创 2024-10-09 19:53:17 · 1155 阅读 · 0 评论 -
原来机器学习那么简单——K近邻回归
机器学习之KNN回归原创 2024-10-09 19:49:29 · 962 阅读 · 0 评论 -
原来机器学习那么简单——支持向量机回归
机器学习之支持向量机回归原创 2024-10-09 15:36:42 · 1957 阅读 · 0 评论 -
原来机器学习这么简单——线性回归
机器学习之线性回归原创 2024-10-09 15:09:36 · 882 阅读 · 0 评论 -
图神经网络笔记
图神经网络介绍,分类及关键概念原创 2023-10-10 17:18:13 · 228 阅读 · 0 评论 -
二分类及多分类ROC和PR曲线绘制
二分类及多分类ROC曲线的绘制二分类及多分类PR曲线的绘制原创 2022-11-01 20:45:44 · 6289 阅读 · 2 评论 -
机器学习概述
机器学习介绍原创 2022-10-23 22:18:11 · 858 阅读 · 0 评论