- 博客(130)
- 收藏
- 关注
原创 【高端局】组合多个弱学习器达到性能跃升的硬核集成算法
今天介绍了5个机器学习中关于集成学习的总结,包括Bagging、Boosting、Stacking、Voting、深度学习集成喜欢的朋友可以起来!
2025-03-23 12:34:41
1321
原创 sklearn库的使用【无监督学习】
无监督学习是在没有标签的数据上训练的。其主要目的可能包括聚类、降维、生成模型等。以下是,这些算法都可以通过使用sklearn。
2025-03-23 12:30:27
958
原创 【建议收藏】10 种图表线性回归
偏差-方差权衡是一个重要的概念,它告诉我们在训练模型时要权衡这两种误差,并避免过拟合(高方差、低偏差)或欠拟合(低方差、高偏差)。杠杆值反映了每个数据点对模型参数估计的影响程度,具有高杠杆值的数据点可能会对模型的拟合产生较大影响。它通过绘制一个自变量与因变量之间的关系图,同时控制其他自变量的影响,来帮助我们理解这个自变量独立于其他变量时对因变量的影响程度。通过观察Cook's 距离,我们可以找出这些数据点,并进一步分析它们对模型的影响,以优化模型的拟合效果。这种图表有助于我们优化模型并提高预测的准确性。
2025-03-22 07:09:50
951
原创 【IT大学生必会的】 10 种图表线性回归
至于数据集,表现方式,大家可以根据我给出的代码继续调整即可!那么,在线性回归学习中,以下10种图表是很重要的:散点图线性趋势线图残差图(Residual plot)正态概率图学习曲线方差-偏差权衡图残差对预测值图部分回归图杠杆图Cook's 距离图。
2025-03-22 07:08:22
1038
原创 【纯干货】线性回归10 种图表大总结
至于数据集,表现方式,大家可以根据我给出的代码继续调整即可!那么,在线性回归学习中,以下10种图表是很重要的:散点图线性趋势线图残差图(Residual plot)正态概率图学习曲线方差-偏差权衡图残差对预测值图部分回归图杠杆图Cook's 距离图。
2025-03-19 15:09:05
707
原创 【新生必会】30个较难Python脚本,建议收藏。
本篇较难,;接上篇文章,对于Pyhon的学习,上篇学习的结束相信大家对于Pyhon有了一定的理解和经验,学习完上篇文章之后再研究研究剩下的30个脚本你将会有所成就!加油!
2025-03-18 07:17:17
1084
原创 【新生必会】20个硬核Python脚本
另外,每个模块底部提供了对于官网文档,更加方便的查询具体的使用方法。内容由简到难,如果对你有帮助的话希望。
2025-03-18 07:15:30
765
原创 ❤【纯干货】Matplotlib总结,任何项目都用得到❤
❤纯 干 货❤目录1、绘制基本图形2、定制化图形3、支持多个坐标轴4、3D绘图5、动态交互绘图6、绘制地图7、绘制统计图表最后 在很多人眼里是无敌的存在,而且可以说是无敌的存在。走过数据科学的路,路上必然有 的风景在你周围。如果同一个项目,你的用了matplotlib 不仅有基本图形、定制化图形、多个坐标轴、3D绘图,还有动态交互绘图、绘制地图、绘制统计图表,甚至还有地图分布!那么谁的更吸引人呢?收藏备用,一定用的上!是一个功能强大且广泛使用的数据可视化工具,特别适用于科学计算、数据分析和数据科学领
2025-03-16 11:31:17
997
原创 6大部分,20 个机器学习算法全面汇总!!建议收藏!(上篇)
它的基本原理是根据数据的特征来构建一颗树状结构,树的每个节点代表一个特征,每个分支代表一个特征的取值,叶节点代表输出类别或数值。对于回归问题,KNN计算最近的K个训练样本的数值输出的平均值或加权平均值,并将结果用作待预测样本的输出。例如,单链接合并规则下,两个簇之间的距离通常是两个簇内距离最近的数据点之间的距离。K 均值聚类(K-Means Clustering)是一种常见的无监督学习算法,用于将数据集划分为K个不同的簇(cluster),使得每个数据点属于距离其最近的簇的中心点。
2025-03-15 18:32:22
852
原创 6大部分,20 个机器学习算法全面汇总!!建议收藏!(下篇)
好了,朋友们,上面咱们列举的 20 个机器学习的核心原理和思路,算是有效的帮助大家做了一个总结!每种算法都有其自身的优点和适用领域,选择算法取决于任务的性质和数据的特点。喜欢的朋友可以起来!
2025-03-15 18:32:02
566
原创 【大一新生】【公司面试】看完文章 面试再考你逻辑回归请嚣张的喊出来“so so EZ!”
逻辑回归的目标函数,通常也称为损失函数或代价函数,用于衡量模型的预测与实际观测值之间的差异。逻辑回归通常用于二分类问题,其目标是最大化观测数据属于正类别或负类别的概率,从而能够进行分类。逻辑回归的目标函数通常使用交叉熵损失函数(Cross-Entropy Loss Function)或对数损失函数(Log Loss Function),这两者通常是等价的。逻辑回归的交叉熵损失函数对于二分类问题,逻辑回归的损失函数可以表示为以下形式:其中:是损失函数。是训练样本数量。
2025-03-14 15:55:15
639
原创 【大一新生必收藏系列】❤机器学习7大方面,30个数据集。纯干货分享❤
选择适当的数据集、数据清洗、特征工程和数据预处理等步骤都需要谨慎处理,以确保模型能够在实际应用中取得良好的效果。数据集的质量和数量都是决定模型成功的关键要素。数据集的大小和质量可以影响模型的过拟合和欠拟合情况。一个好的数据集可以让模型更准确,而低质量或小规模的数据集可能导致模型表现不佳。的30个常见机器学习数据集,以及每个数据集的介绍、获取链接和可能涉及到的算法。好的数据集能够确保模型在不同数据上的泛化能力。合适的特征选择和工程能够提高模型的泛化能力。数据集的不平衡分布或偏斜可能导致模型的偏差。
2025-03-14 15:40:17
892
原创 入门程序员必会的SVM算法,大一时候这个算法帮忙完成了超级多项目
另外,非线性SVM的数学公式比较复杂,但我们可以简化为:它是一种方法,可以将数据映射到一个不同的空间,然后在那个空间中使用线性SVM。我们还有k个类别,用1到k的数字表示。它的目标是找到一个能够在数据中画出一条直线(或者高维空间中的超平面),将不同类别的数据点分隔开,并且最大化两侧最靠近这条线的数据点之间的距离。:SVM支持向量机对于训练数据中的噪声和异常点具有一定的鲁棒性,可以有效地处理输入数据中的噪声。核贝叶斯支持向量机通过学习一些已知的例子,并找到一个特殊的边界,用于将不同的事物区分开来。
2025-03-13 11:18:15
990
原创 【大梳理】机器学习中10种损失函数大梳理!建议收藏 1、均方误差2、平均绝对误差3、交叉熵损失4、对数损失5、多类别交叉熵损失6、二分类交叉熵损失7、余弦相似度损失 8、希尔
是在机器学习和深度学习中用来衡量模型预测值与真实标签之间差异的函数。不同的任务和模型可能需要不同的损失函数。今天就聊聊下面常见的损失函数,关于原理、使用场景,并且给出完整的代码:均方误差平均绝对误差交叉熵损失对数损失多类别交叉熵损失二分类交叉熵损失余弦相似度损失希尔伯特-施密特口袋Huber损失感知器损失ok,咱们一起来学习一下~
2025-03-09 21:09:29
1178
原创 ❤简单但是常用的线性回归十种图表 下❤o(* ̄▽ ̄*)ブ
偏差-方差权衡是一个重要的概念,它告诉我们在训练模型时要权衡这两种误差,并避免过拟合(高方差、低偏差)或欠拟合(低方差、高偏差)。杠杆值反映了每个数据点对模型参数估计的影响程度,具有高杠杆值的数据点可能会对模型的拟合产生较大影响。它通过绘制一个自变量与因变量之间的关系图,同时控制其他自变量的影响,来帮助我们理解这个自变量独立于其他变量时对因变量的影响程度。通过观察Cook's 距离,我们可以找出这些数据点,并进一步分析它们对模型的影响,以优化模型的拟合效果。这种图表有助于我们优化模型并提高预测的准确性。
2025-03-08 11:45:38
883
原创 ❤简单但是很常用的线性回归 10 种图表❤o(* ̄▽ ̄*)ブ
至于数据集,表现方式,大家可以根据我给出的代码继续调整即可!那么,在线性回归学习中,以下10种图表是很重要的:散点图线性趋势线图残差图(Residual plot)正态概率图学习曲线方差-偏差权衡图残差对预测值图部分回归图杠杆图Cook's 距离图。
2025-03-08 11:43:51
620
原创 机器学习:在Python中sklearn库的使用,纯干货!12个小时的整理!
无监督学习是在没有标签的数据上训练的。其主要目的可能包括聚类、降维、生成模型等。以下是,这些算法都可以通过使用sklearn。
2025-03-03 08:21:14
775
原创 【建议收藏】20个硬核Python脚本,纯干货分享
另外,每个模块底部提供了对于官网文档,更加方便的查询具体的使用方法。内容由简到难,如果对你有帮助的话希望。
2025-03-01 08:09:33
434
原创 机器学习干货笔记分享:朴素贝叶斯算法
朴素贝叶斯分类是一种十分简单的分类算法,即对于给出的待分类项,求解在此项出现的条件下各个类别出现的概率,哪个最大,就认为此待分类项属于哪个类别。以判定外国友人为例做一个形象的比喻。若我们走在街上看到一个黑皮肤的外国友人,让你来猜这位外国友人来自哪里。十有八九你会猜是从非洲来的,因为黑皮肤人种中非洲人的占比最多,虽然黑皮肤的外国人也有可能是美洲人或者是亚洲人。但是在没有其它可用信息帮助我们判断的情况下,我们会选择可能出现的概率最高的类别,这就是朴素贝叶斯的基本思想。
2024-12-11 13:38:43
486
原创 机器学习干货笔记分享:k近邻(knn)算法
重难点:机器学习算法的基本概念和适用场景。英国统计学家George E. P. Box的名言:All models are wrong, but some are useful. 没有哪一种算法能够适用所有情况,只有针对某一种问题更有用的算法。也就是说,机器学习算法不会要求一个问题被 100%求解,取而代之的是把问题转化为最优化的问题,用不同的算法优化问题,从而比较得到尽量好的结果。因此对于数据科学家来说,理解算法显得格外重要,理解不同算法的思想可以帮助数据科学家更从容地面对不同的应用场景。
2024-12-11 13:34:55
774
原创 程序员最趁手的SVM算法,学完你会哭着感谢努力的自己!
另外,非线性SVM的数学公式比较复杂,但我们可以简化为:它是一种方法,可以将数据映射到一个不同的空间,然后在那个空间中使用线性SVM。我们还有k个类别,用1到k的数字表示。它的目标是找到一个能够在数据中画出一条直线(或者高维空间中的超平面),将不同类别的数据点分隔开,并且最大化两侧最靠近这条线的数据点之间的距离。:SVM支持向量机对于训练数据中的噪声和异常点具有一定的鲁棒性,可以有效地处理输入数据中的噪声。核贝叶斯支持向量机通过学习一些已知的例子,并找到一个特殊的边界,用于将不同的事物区分开来。
2024-06-25 08:52:02
1016
原创 ❤【纯干货】Matplotlib总结,任何项目都用得到❤
❤纯 干 货❤目录1、绘制基本图形2、定制化图形3、支持多个坐标轴4、3D绘图5、动态交互绘图6、绘制地图7、绘制统计图表最后 在很多人眼里是无敌的存在,而且可以说是无敌的存在。走过数据科学的路,路上必然有 的风景在你周围。如果同一个项目,你的用了matplotlib 不仅有基本图形、定制化图形、多个坐标轴、3D绘图,还有动态交互绘图、绘制地图、绘制统计图表,甚至还有地图分布!那么谁的更吸引人呢?收藏备用,一定用的上!是一个功能强大且广泛使用的数据可视化工具,特别适用于科学计算、数据分析和数据科学领
2024-06-24 14:47:38
640
原创 ❤机器学习正则化算法的总结。耗时10个小时完成。❤
Dropout 正则化的原理是,在训练期间以概率 随机地将一部分神经元的输出设置为零,称为“丢弃”。通过绘制训练误差和验证误差的曲线,以及早停法的标记点,可以更加直观地观察到模型的优化过程和选择最佳模型时的判定点。上述代码生成了一些具有噪声的样本数据,并构建了一个简单的具有Dropout正则化的神经网络模型。通过增强后的数据集,模型能够更好地捕捉到数据的不同特征和变化,使得模型能够更好地区分两个类别。通过这种方式,Dropout 正则化可以减少神经元之间的依赖性,提高模型的鲁棒性。
2024-06-24 14:45:55
538
原创 【建议收藏】逻辑回归面试题,机器学习干货、重点。
逻辑回归的目标函数,通常也称为损失函数或代价函数,用于衡量模型的预测与实际观测值之间的差异。逻辑回归通常用于二分类问题,其目标是最大化观测数据属于正类别或负类别的概率,从而能够进行分类。逻辑回归的目标函数通常使用交叉熵损失函数(Cross-Entropy Loss Function)或对数损失函数(Log Loss Function),这两者通常是等价的。逻辑回归的交叉熵损失函数对于二分类问题,逻辑回归的损失函数可以表示为以下形式:其中:是损失函数。是训练样本数量。
2024-06-22 08:46:28
1011
原创 机器学习7大方面,30个硬核数据集。纯干货分享
选择适当的数据集、数据清洗、特征工程和数据预处理等步骤都需要谨慎处理,以确保模型能够在实际应用中取得良好的效果。数据集的质量和数量都是决定模型成功的关键要素。数据集的大小和质量可以影响模型的过拟合和欠拟合情况。一个好的数据集可以让模型更准确,而低质量或小规模的数据集可能导致模型表现不佳。的30个常见机器学习数据集,以及每个数据集的介绍、获取链接和可能涉及到的算法。好的数据集能够确保模型在不同数据上的泛化能力。合适的特征选择和工程能够提高模型的泛化能力。数据集的不平衡分布或偏斜可能导致模型的偏差。
2024-06-22 08:43:05
913
原创 深度学习各算法的优缺点和适用场景!!纯干货,建议收藏。(上篇)
纯 干 货深度学习通过多层神经网络模型来学习和表示数据的高级特征。。深度学习现在的重要作用是大家有目共睹的。先来简单来聊聊在算法领域和实际工业领域都发挥了哪些重要的作用。1、:深度学习可以用于解决复杂的模式识别问题,如图像分类、语音识别和自然语言处理。深度卷积神经网络 和 循环神经网络等模型在这些任务中取得了巨大的成功。2、:深度学习可用于生成新的数据,包括图像、文本和音频。生成对抗网络和变分自编码器等生成模型已经被广泛应用于图像生成、自然语言生成和音乐合成等任务。3、
2024-06-21 13:51:50
949
原创 【建议收藏】30个较难Python脚本,纯干货分享
纯 干 货. 本篇较难,;接上篇文章,对于Pyhon的学习,上篇学习的结束相信大家对于Pyhon有了一定的理解和经验,学习完上篇文章之后再研究研究剩下的30个脚本你将会有所成就!加油!
2024-06-20 08:27:56
979
原创 【建议收藏】20个硬核Python脚本,纯干货分享
另外,每个模块底部提供了对于官网文档,更加方便的查询具体的使用方法。内容由简到难,如果对你有帮助的话希望。
2024-06-20 08:26:45
1013
原创 特别实用的8个机器学习算法总结!建议收藏,反复观看!
今天介绍了8个机器学习中回归类算法的总结,以及不同情况使用的特征。线性回归: 适用于特征与目标之间呈线性关系的情况,例如简单的回归分析、连续型数值预测等。多项式回归:当特征与目标之间的关系呈现出非线性趋势时,可以使用多项式回归来拟合曲线关系,适用于二次、三次等多项式关系。岭回归: 在线性回归中存在多重共线性(特征之间高度相关)时,岭回归可以用来稳定模型。它也有助于防止过拟合。Lasso回归: 适用于具有许多特征的数据集,可以帮助选择最重要的特征,同时进行特征选择和回归。弹性网络回归。
2024-06-19 07:48:20
793
原创 ❤【纯干货】Matplotlib总结,任何项目都用得到❤
总的来说,Matplotlib 是一个强大而灵活的 Python 数据可视化工具,可用于创建各种类型的图表,帮助用户更好地理解和呈现数据。如果你需要在数据分析和可视化中使用 Python,Matplotlib 是一个不可或缺的工具之一。
2024-06-19 07:48:08
908
原创 机器学习正则化算法的总结,建议收藏。(下篇)
纯干货L1 正则化L2 正则化弹性网络正则化Dropout 正则化贝叶斯Ridge和Lasso回归早停法数据增强上篇讲了前五种,这篇记录后两种。直接步入主题,
2024-06-18 08:25:39
577
原创 机器学习正则化算法的总结,建议收藏。(上篇)
纯 干 货正则化通过在模型的损失函数中添加一个正则项(惩罚项)来实现。这个正则项通常基于模型参数的大小,以限制模型参数的数量或幅度。:L1正则化添加了模型参数的绝对值之和作为正则项。它倾向于使一些参数变为零,从而达到特征选择的效果。所以,L1正则化可以用于自动选择最重要的特征,并减少模型复杂度。:L2正则化添加了模型参数的平方和作为正则项。它倾向于使所有参数都较小,但没有明确地将某些参数设置为零。L2正则化对异常值更加鲁棒,并且可以减少模型的过度依赖单个特征的情况。
2024-06-18 08:24:55
1088
空空如也
田忌赛马问题】,用c语言实现蛮力法实现的全排列算法”
2024-06-29
5稀疏支持向量机..
2024-06-25
6核贝叶斯支持向量机
2024-06-25
贝叶斯Ridge回归
2024-06-24
机器学习各个算法的优缺点
2024-06-23
argparse库33333
2024-06-22
命令行应用 - argparse
2024-06-21
机器学习正则化算法的总结
2024-06-18
机器学习中的神经网络重难点
2024-06-17
机器学习中的神经网络重难点
2024-06-16
关于机器学习的向量机,都讲了什么
2024-06-14
关于支持向量机,他的重难点是什么?
2024-06-12
关于深度学习,有什么小窍门,更好的学习
2024-06-11
深度学习各算法的优缺点和适用场景
2024-06-08
给我讲清楚机器学习库
2024-06-07
scikit-learn有什么用?怎么用呢?什么场景下用
2024-06-05
如何更好更快速的学习完SVM算法
2024-06-04
关于机器学习,有什么更好的建议?
2024-06-03
机器学习算法中,那些属于线性回归算法(相关搜索:机器学习算法)
2024-06-02
机器学习中,卷积怎么用更好(语言-python)
2024-06-01
关于#python#的问题,请各位专家解答!
2024-05-31
TA创建的收藏夹 TA关注的收藏夹
TA关注的人