机器学习经典算法
文章平均质量分 92
专栏聚焦于分享和解析机器学习经典算法,内容以理论结合实践为核心,从算法概念、公式推导到代码实现,深入浅出地讲解这些算法的原理、应用场景及优化技巧。
倪桦
不管何时,也要努力的学习吖,加油!!!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习经典算法:集成学习策略
集成学习(Ensemble Learning)是一种通过结合多个基础模型(称为“弱学习器”)来提高整体模型性能的策略。其核心思想是将多个模型的预测结果结合在一起,减少单一模型的偏差和方差,从而获得比任何单个模型更好的预测效果。集成学习通常用于提高模型的稳定性、准确性和泛化能力。原创 2024-11-26 12:04:41 · 899 阅读 · 0 评论 -
机器学习经典算法:决策树模型(Decision Tress)
决策树模型(Decision Tree)是一种常用于分类和回归任务的监督学习模型,它通过一系列的决策规则将数据逐步划分,最终形成一个树状结构。每个内部节点代表对特征的判断或测试,每个叶子节点代表分类结果或预测值。决策树模型的核心思想是通过选择最佳特征进行划分,以最大化信息增益或最小化某种损失函数,逐层将数据分割成更加纯净的子集。原创 2024-11-26 12:02:31 · 1608 阅读 · 0 评论 -
机器学习经典算法:核SVM决策模型(KernelSVM)
核支持向量机(Kernel SVM)是支持向量机(SVM)的扩展,它通过引入核函数,将数据从原始空间映射到更高维的特征空间,使得原本在低维空间中不可分的线性不可分数据变得可分。核SVM的核心思想是使用核函数计算数据点在高维空间中的内积,而无需显式地计算映射。原创 2024-11-26 11:59:58 · 970 阅读 · 0 评论 -
机器学习经典算法:线性SVM决策模型(LinearSVM)
线性支持向量机(Linear SVM)是一种用于二分类问题的机器学习算法,通过找到一个最佳的超平面来分隔数据点,确保不同类别的样本被正确分类,并且具有最大的间隔。原创 2024-11-26 11:56:23 · 1032 阅读 · 0 评论 -
机器学习经典算法:空间内一点到超平面的距离推广
空间内一点到超平面的距离是几何学中的一个重要概念,通常用于描述点与高维空间中平面(超平面)之间的关系。在高维空间中,超平面仍然是一个维度比空间少1的子空间,点到超平面的距离可以通过上面的公式进行计算,关键是法向量和点的位置。在机器学习中,尤其在支持向量机(SVM)等算法中,这一距离度量非常重要,用于划分不同类别的数据点和寻找最佳分类边界。原创 2024-11-26 11:51:26 · 2283 阅读 · 0 评论 -
机器学习经典算法:分类模型的多重评价指标
分类模型的多重评价指标用于全面衡量模型的分类性能,通过不同角度评估模型的表现。常见的指标包括 准确率(Accuracy)、精确率(Precision)、召回率(Recall)、F1值和ROC-AUC。原创 2024-11-26 11:48:23 · 1223 阅读 · 0 评论 -
机器学习经典算法:逻辑回归(Logistic Regression)
逻辑回归是一种用于解决二分类问题的机器学习算法,通过学习线性模型和应用逻辑函数(Sigmoid)将输出映射到概率值(0到1之间)。原创 2024-11-26 11:40:05 · 1081 阅读 · 0 评论 -
机器学习经典算法:决策边界(Decision Boundary)
在分类问题中,决策边界(Decision boundaries)的几何含义表示为一个超曲面 (线性分类的边界为超平面),该曲面将特征空间中的样本按样本类别分布将它们划分分开。原创 2024-11-26 11:32:49 · 1121 阅读 · 0 评论 -
机器学习经典算法:添加模型正则化提高泛化能力(岭回归)
模型正则化是一种在机器学习中防止过拟合的技术,通过在目标函数中添加约束项来限制模型复杂度。常见的正则化方法包括L1正则化(Lasso),促进特征稀疏性;L2正则化(Ridge),减少参数幅度,提高泛化能力。正则化有助于平衡模型对训练数据的拟合和对新数据的适应能力,尤其在特征数量较多或数据稀疏的情况下,有效提高模型的稳健性和性能。原创 2024-11-26 11:30:33 · 1084 阅读 · 0 评论 -
机器学习经典算法:模型的泛化
模型泛化是指机器学习模型在训练数据之外的新数据上的表现能力,是衡量模型是否能有效适应未知数据的关键指标。良好的泛化能力意味着模型不仅能在训练数据上取得高精度,还能避免过拟合和欠拟合,准确预测测试数据或实际应用中的数据。这对于确保模型的可靠性和实用性至关重要,尤其在真实世界问题中,数据通常存在多样性和噪声,泛化能力直接影响模型的性能和稳定性。原创 2024-11-26 11:06:01 · 1261 阅读 · 0 评论 -
机器学习经典算法:多项式回归
多项式回归基于线性回归的思想,在模型中引入了自变量的高次幂项,从而使得模型能够拟合非线性关系的数据。原创 2024-11-25 18:49:23 · 759 阅读 · 0 评论 -
机器学习经典算法:利用梯度上升法求解 主成分分析(PCA)的载荷轴
梯度上升法可以用于求解主成分分析(PCA)的载荷轴,通过不断迭代调整一个初始随机方向,找到数据方差最大的方向,这个方向对应于数据的主成分。每次迭代时,根据数据的梯度信息调整方向,直到找到最大方差的方向,进而得到PCA的主成分载荷轴。原创 2024-11-25 18:46:12 · 1697 阅读 · 0 评论 -
机器学习经典算法:回归模型的性能评估方法
在回归模型中,评估模型的性能是至关重要的,而常用的评估指标包括均方误差(MSE)、均方根误差(RMSE)、平均绝对误差(MAE)和决定系数(R²)等。原创 2024-11-25 18:43:24 · 878 阅读 · 0 评论 -
机器学习经典算法:利用梯度下降法求解线性回归参数
梯度下降法通过迭代更新线性回归模型的参数,沿着误差函数的梯度反方向逐步最小化损失,直到收敛到最优解。原创 2024-11-25 18:36:32 · 1312 阅读 · 0 评论 -
机器学习经典算法:关于多元线性回归的正规方程解
多元线性回归的正规方程解通过公式 \(\beta = (X^T X)^{-1} X^T y\) 直接计算回归系数,最小化误差以找到最佳拟合。原创 2024-11-25 18:33:01 · 2506 阅读 · 0 评论 -
机器学习经典算法:简单线性回归(一元)
一元线性回归是一种用来预测单个因变量与单个自变量之间线性关系的算法。原创 2024-11-25 18:30:15 · 1098 阅读 · 0 评论 -
机器学习经典算法:数据特征处理 —— “归一化”
数据特征归一化将不同尺度的特征统一到相同范围,避免某些特征主导模型。它能加速训练过程,提高算法稳定性,特别是对于依赖距离的算法(如K近邻、支持向量机),从而提升模型的准确性和效率。原创 2024-11-25 18:24:34 · 907 阅读 · 0 评论 -
机器学习经典算法:分类模型性能评估 --- 准确度(Accuracy)
Train-Test分割是机器学习中常用的技术,目的是将数据集分为训练集和测试集,通常训练集占70%~80%,测试集占20%~30%。训练集用于训练模型,测试集用于评估模型在未见数据上的性能。此分割能够有效检验模型的泛化能力,避免过拟合,并确保模型在真实应用中的表现。通过这种方式,能更客观地评估模型的预测准确性和实用性。原创 2024-11-25 18:19:59 · 992 阅读 · 0 评论 -
机器学习经典算法:K近邻算法(KNN)
K近邻算法(KNN)是一种基于距离的机器学习算法,通过寻找离目标点最近的K个邻居并综合其信息完成分类或回归。它简单直观,无需训练,但计算成本较高,对K值和数据分布敏感。原创 2024-11-25 18:12:22 · 1201 阅读 · 0 评论 -
机器学习经典算法:Numpy库常用用法介绍
NumPy是Python中用于科学计算的核心库,提供了支持多维数组操作、高效数学计算和线性代数的工具。原创 2024-11-25 18:10:18 · 294 阅读 · 0 评论 -
机器学习经典算法:机器学习的概念
机器学习是人工智能的重要一个分支,旨在通过算法和统计模型使计算机从数据中学习规律并进行预测或决策,而无需明确的规则编程。原创 2024-11-25 18:05:35 · 1155 阅读 · 0 评论
分享