机器学习
文章平均质量分 92
DK22151
大数据专业在读,分享日常学习总结!
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
机器学习系列----关联分析
关联分析主要用于挖掘数据集中的频繁项集(Frequent Itemsets)和关联规则(Association Rules)。关联规则通常采用“如果-那么”的形式,即:如果条件 A 成立,则条件 B 成立。最常见的应用场景是市场篮子分析,在这个场景中,A 和 B 代表顾客购买的商品。关联规则通常包含三个重要的度量:支持度(Support):规则中项集的出现频率,表示在整个数据集中,A 和 B 同时出现的概率。原创 2024-11-18 19:25:57 · 2687 阅读 · 0 评论 -
机器学习系列----KNN分类
在机器学习领域,K近邻算法(K-Nearest Neighbors, KNN)是一种非常直观且常用的分类算法。它是一种基于实例的学习方法,也被称为懒学习(Lazy Learning),因为它在训练阶段不进行任何模型的构建,所有的计算都推迟到测试阶段进行。KNN分类的核心思想是:给定一个测试样本,找到在训练集中与其距离最近的K个样本,然后根据这K个样本的标签进行预测。本文将介绍KNN算法的基本原理、如何实现KNN分类,以及在实际使用中需要注意的几点。原创 2024-11-13 17:26:08 · 1979 阅读 · 0 评论 -
机器学习系列----岭回归(Ridge Regression)简介及实现
岭回归(Ridge Regression),也被称为Tikhonov正则化,是一种线性回归的变体。它通过在普通最小二乘法(OLS)回归中加入L2正则化项来解决多重共线性问题,从而提高模型的泛化能力和鲁棒性。岭回归的核心思想是通过惩罚模型的参数,使得它们保持较小的值,从而减少过拟合的风险。岭回归适用于当特征之间高度相关时(即多重共线性问题),普通的线性回归模型可能会变得不稳定,并且模型的系数可能会变得非常大。岭回归通过加上一个正则化项,约束了模型参数的大小,从而使得模型更加稳健。原创 2024-11-09 16:57:04 · 9841 阅读 · 0 评论 -
机器学习系列----深入理解Transformer模型
Transformer模型的最大特点是基于“自注意力机制”(Self-Attention),它不依赖于传统的循环神经网络(RNN)或卷积神经网络(CNN),而是通过并行计算高效地处理序列数据。Transformer模型包含两个主要部分:编码器(Encoder)和解码器(Decoder)。每个部分由多个相同的层组成,每层包含不同的子组件。接下来,我们将逐一分析Transformer模型的关键组成部分。1. 自注意力机制(Self-Attention)原创 2024-11-09 16:40:21 · 2192 阅读 · 0 评论 -
机器学习系列----介绍前馈神经网络和卷积神经网络 (CNN)
前馈神经网络(FNN)是一种最基本的神经网络结构,信息在网络中按单向流动,没有任何循环或反馈连接。它由输入层、若干隐藏层和输出层组成。输入层:接收原始数据,传递给网络中的隐藏层。隐藏层:通过神经元和激活函数处理数据,捕捉数据中的特征。输出层:输出网络最终的预测结果。FNN 是最简单的神经网络结构,通常用于分类和回归问题。卷积神经网络(CNN)是一种专门用于处理具有网格结构的数据的深度学习算法,最常用于图像处理任务。原创 2024-11-05 17:00:36 · 2852 阅读 · 0 评论 -
机器学习系列----梯度下降算法
梯度下降算法是一个用于优化的算法,它通过迭代的方式来最小化一个损失函数。在机器学习中,模型的学习过程就是在训练数据上找到一组最佳的参数,这组参数能够使得预测的结果和真实标签之间的误差最小化。梯度下降就是通过反复调整模型参数(例如权重和偏置),沿着损失函数的梯度方向前进,从而找到最优解。1.1 为什么是“梯度”下降?“梯度”指的是一个多维函数在某一点的变化率,即函数的导数。在梯度下降算法中,梯度表示损失函数相对于模型参数的变化情况。原创 2024-11-05 17:23:06 · 1353 阅读 · 0 评论 -
机器学习系列-----主成分分析(PCA)
主成分分析(PCA)是一种强大的统计方法,广泛应用于数据降维和特征提取。其主要思想是通过将高维数据投影到一个新的坐标系中,使得新坐标系中的各个主成分(即特征向量)能够最大程度地捕捉数据的方差,从而有效降低数据的维度并保留最重要的信息。PCA的基本过程包括对数据进行标准化处理、计算数据的协方差矩阵、对协方差矩阵进行特征值分解、然后选择前几个具有最大特征值的主成分,并将原始数据投影到这些主成分上,从而实现降维。原创 2024-11-07 16:39:22 · 4301 阅读 · 0 评论
分享