
机器学习
文章平均质量分 87
原创小白变怪兽
这个作者很懒,什么都没留下…
展开
-
关于机器学习SVM中KKT条件的深入理解推导
本文面向在寻找KKT条件相关推到文章的读者,且默认前面关于svm的松弛下的模型和smo算法推到都已经了解。如果没有或者需要温习,请参看,文章虽然是本科时期所写比较粗糙,但在本文发表前已经重做修改(虽然界面比较丑),但耐心一定能看懂。若想要看视频的推导,也可以看我发现的宝藏up主,翻看里面的机器学习专栏。原创 2022-11-05 14:28:30 · 1290 阅读 · 0 评论 -
利用SVD简化数据——奇异值分解
利用SVD简化数据——奇异值分解基础知识奇异值分解的原理基于协同过滤的搜索引擎实例:餐馆菜肴推荐引擎 和 代码基础知识奇异值分解 优点:简化数据,去除噪声,提高算法的结果。缺点:数据的转换可能难以理解。适用数据类型:数值型数据。作用:数据降维,压缩存储。通过抽取特征数据,从而去除噪声和冗余数据,达到压缩数据的目的。应用的主要方面有:隐形语义的索引,推荐引擎,数据压缩。下面我们就来具体看看SVD的应用有哪些:●最早的SVD应用之-就是信息检索,我们称利用SVD的方法为隐性语义索引(原创 2021-08-19 20:07:53 · 1187 阅读 · 0 评论 -
Apriori关联分析与实操
Apriori关联分析与实操基础知识Apriori原理算法实现基础知识在去杂货店买东西的过程,实际包含了许多机器学习的当前及未来应用,这包括物品的展示方式、购物之后优惠券的提供以及用户忠诚度计划,等等。它们都离不开对大量数据的分析。商店希望从顾客身上获得尽可能多的利润,所以他们必然会利用各种技术来达到这一目的。通过查看哪些商品经常在一起购买,可以帮助商店了解用户的购买行为。这种从数据海洋中抽取的知识可以用于商品定价、市场促销、存货管理等环节。从大规模数据集中寻找物品间的隐含关系被称作关联分析原创 2021-08-14 00:04:00 · 208 阅读 · 5 评论 -
PCA简化数据——主成分分析法
PCA简化数据——主成分分析法基础知识主成分分析法PCA算法基础知识降维:将多维数据降到需要的维数,是一种对高维度特征数据预处理的方法。降维是将高维度的数据保留下最重要的特征,去除噪声和不重要的特征,从而实现提升数据处理速度的目的。在实际的生产和应用中,降维在一定的信息损失范围内,可以为我们节省大量的时间和成本。而降维具有如下的一些特点:1.使得数据集更易使用2.降低算法的计算开销3.去除噪声4.使得结果容易理解而降维只要通过如下的三种方法来得以实现独立成分分析:(Indepe原创 2021-07-02 14:52:27 · 606 阅读 · 4 评论 -
机器学习之K均值聚类算法
机器学习之K均值聚类算法K均值聚类算法介绍K均值聚类算法的实现2分-K均值聚类算法2分-K均值聚类算法的实现K均值聚类算法介绍我们来介绍K均值聚类算法,首先读者要知道,聚类是一类无监督的学习,它将相似的对象归到同一个簇中。簇内的数据越相似,则聚类效果越好。无监督学习是指没有事先标记好训练集的类型。聚类和分类都是对记录进行分组;但分类则有预先定义的类别。K均值聚类算法其实很简单,就如上图所述,我们紧接着就引出K均值聚类的算法。K均值聚类算法的优点就是算法简单,读者在上面也看到了;而它的缺点是:可能原创 2021-06-28 07:23:01 · 3580 阅读 · 2 评论 -
支持向量机SVM与SMO算法的的详细推导过程
通俗来说,支持向量机就是一个二分类问题,根据所给的训练集数据集进行将数据的最佳划分,以达到测试集的最佳分类。支持向量机也叫做SVM,在实际工业的运用中,有着很强的可靠性和广泛的使用。接下来我们就来具体介绍一下这么好用的算法。所谓的二分类问题就是通过一条分割线来对数据进行分类,在二维情况下就是平面直角坐标系下的y=kx+b,当x的维度(对应与需要分类的条件,即属性增多的情况)大于等于2时,情况就上升的多维的情况,我们就引出了超平面的概念。原创 2021-06-04 11:18:22 · 897 阅读 · 0 评论 -
Logistic回归、最优化理论与算法
Logistic回归、最优化理论与算法基于Logistic回归和sigmoid函数分类极大似然估计最优化算法理论logistic回归梯度上升优化算法基于Logistic回归和sigmoid函数分类在介绍logistic回归之前,我们先要搞懂回归和分类的区别:通俗一-点讲,我们要预测的结果是一个数,比如要通过- 一个人的饮食预测-一个人的体 重体重的值可以有无限多个,有的人50kg,有的人51kg在50和51之间也有无限多个数这种预测结果是某一个确定数, 而具体是哪个数有无限多种可能的问题我们会训练出原创 2021-05-21 11:24:56 · 646 阅读 · 0 评论 -
朴素贝叶斯分类与语言分类实例
朴素贝叶斯分类与语言分类实例贝叶斯语言分类问题代码实现贝叶斯就拿最简答的二分类来说明,贝叶斯分类是根据计算需要判断的参数分别属于不同类别的概率,哪个的概率大就属于哪一个分类。下面来看一个简单示例:在学习朴素贝叶斯分类之前,需要有一些前驱课程的学习,比如概率论与数理统计,考虑到读者的水平层次不齐,这里再介绍一下条件概率的概念,后面的分类就是基于这个来进行的。在了解了条件概率的概念后,我们来具体看一个语言分类的实例来加深理解,并进行实现和源码讲解。语言分类问题在我们的网络信息交流中原创 2021-05-21 10:43:12 · 348 阅读 · 2 评论 -
机器学习之k-近邻算法(KNN)
机器学习之k-近邻算法(KNN)k-近邻算法的概念k-近邻算法流程及实现详解算法概述问题描述k-近邻算法将文本记录转换为NumPy的解析程序归一化特征值分类器针对约会网站的测试代码约会网站测试函数k-近邻算法的概念简单地说,k-近邻算法采用测量不同特征值之间的距离方法进行分类。它的工作原理是:存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输入没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法原创 2021-04-23 11:14:45 · 651 阅读 · 3 评论 -
简单易懂!决策树及其构造
简单详细易懂!决策树及其构造什么是决策树信息熵决策树的构造什么是决策树你是否玩过二十个问题的游戏,游戏的规则很简单:参与游戏的一方在脑海里想某个事物,其他参与者向他提问题,只允许提20个问题,问题的答案也只能用对或错回答。问问题的人通过推断分解,逐步缩小待猜测事物的范围。决策树的工作原理与20个问题类似,用户输入一系列数据,然后给出游戏的答案。信息熵接下来介绍信息熵的概念,决策树的构造很大程度上需要信息熵这个工具在上表中可以看到,有“不浮出水面”,“是否有脚蹼”两个特征,在构造决策原创 2021-04-18 12:01:45 · 1098 阅读 · 0 评论