
机器学习——【AI】
文章平均质量分 95
机器学习——AI
BluePing
这个作者很懒,什么都没留下…
展开
-
IDEA新手使用教程(详解)
一、IDEA的下载IDEA下载地址:https://www.jetbrains.com/idea/download/#section=windowsIDEA 分为两个版本:旗舰版(Ultimate)和社区版(Community)。二、安装过程在这我们选择装旗舰版,社区版虽然免费,但是有些功能不全双击【ideaIU-2018.3.3.exe】安装文件:点击下一步(Next)选择好【文件的安装文件目录】,点击【Next】红色箭头所指向的选项代表根据你的电脑选择对应的位数,这里我选.转载 2021-05-17 20:39:20 · 62979 阅读 · 9 评论 -
NSGA2算法及其代码
本人最近研究NSGA2算法,网上有很多示例代码,但是基本没有注释,代码看起来很头疼,因此我最近把整个代码研读了一遍,并做上中文注释,希望可以帮助到一些和我一样的初学者们。贴出代码之前,首先介绍一下NSGA2遗传算法的流程图:流程图中我把每个详细的步骤用号码标出来,对应下文的代码部分。首先贴出主函数代码,对应整个流程图:function nsga_2_optimization%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%...转载 2020-09-20 21:24:39 · 5292 阅读 · 4 评论 -
BP神经网络预测实现
基本概念误差反向传播神经网络简称为BP(Back Propagation)网络,它是一种具有三层或三层以上的多层神经网络,每一层都由若干个神经元组成。如图所示为一个BP神经网络的结构图,它的左、右各层之间各个神经元实现全连接,即左层的每一个神经元与右层的每个神经元都有连接,而上下各神经元之间无连接。BP神经网络按有监督学习方式进行训练,当一对学习模式提供给网络后,其神经元的激活值将从输入层经各隐含层向输出层传播,在输出层的各神经元输出对应于输入模式的网络响应。然后,按减少希望输出与实际输出误差的原则,从转载 2020-09-20 11:25:19 · 7057 阅读 · 1 评论 -
什么是机器学习?
定义机器学习是一门多学科交叉专业,涵盖概率论知识,统计学知识,近似理论知识和复杂算法知识,使用计算机作为工具并致力于真实实时的模拟人类学习方式, 并将现有内容进行知识结构划分来有效提高学习效率。[1]机器学习有下面几种定义:(1) 机器学习是一门人工智能的科学,该领域的主要研究对象是人工智能,特别是如何在经验学习中改善具体算法的性能。(2) 机器学习是对能通过经验自动改进的计算机算法的研究。(3) 机器学习是用数据或以往的经验,以此优化计算机程序的性能标准。[2]发展历程...原创 2020-09-17 22:21:48 · 3269 阅读 · 0 评论 -
机器学习降维算法六——ISOMAP(等距特征映射)
流形学习:传统的机器学习方法中,数据点和数据点之间的距离和映射函数都是定义在欧式空间中的,然而在实际情况中,这些数据点可能不是分布在欧式空间中的,因此传统欧式空间的度量难以用于真实世界的非线性数据,从而需要对数据的分布引入新的假设。流形学习假设所处理的数据点分布在嵌入于外维欧式空间的一个潜在的流形体上,或者说这些数据点可以构成这样一个潜在的流形体。图1 一个嵌在三维空间的流行体图1就是一个数据嵌入在流行体的例子,传统的例如PCA和MDS降维方法效果就不是十分理想。此流行体实际上是一个二维分布的平原创 2020-09-17 21:59:49 · 12621 阅读 · 0 评论 -
机器学习降维算法五——KPCA算法
一,介绍现实中往往很多数据是线性不可分的,因此我们需要引入核函数把数据映射到高纬度而达到线性可分。基于核函数的主成分分析(KPCA)和主成分分析(KPCA)的步骤是一样的,只不过需要用核函数替代了原来的数据。原理从其他地方拷贝而来:二,代码实现from sklearn.datasets import make_moonsfrom sklearn.decomposition import PCAfrom sklearn.decomposition import KernelPCAi转载 2020-09-17 21:56:44 · 3458 阅读 · 1 评论 -
机器学习降维算法二:LDA(Linear Discriminant Analysis)
Linear Discriminant Analysis(也有叫做Fisher Linear Discriminant)是一种有监督的(supervised)线性降维算法。与PCA保持数据信息不同,LDA是为了使得降维后的数据点尽可能地容易被区分!假设原始数据表示为X,(m*n矩阵,m是维度,n是sample的数量)既然是线性的,那么就是希望找到映射向量a,使得a'X后的数据点能够保持以下两种性质:1、同类的数据点尽可能的接近(within class)2、不同类的数据点尽可能的分开(b..转载 2020-09-17 21:42:58 · 406 阅读 · 0 评论 -
机器学习降维算法一:PCA (Principal Component Analysis)
引言:机器学习领域中所谓的降维就是指采用某种映射方法,将原高维空间中的数据点映射到低维度的空间中。降维的本质是学习一个映射函数f : x->y,其中x是原始数据点的表达,目前最多使用向量表达形式。y是数据点映射后的低维向量表达,通常y的维度小于x的维度(当然提高维度也是可以的)。f可能是显式的或隐式的、线性的或非线性的。当然还有一大类方法本质上也是做了降维,叫做feature selection,目的是从原始的数据feature集合中挑选一部分作为数据的表达。目前大部分降维算法处理向量..原创 2020-09-17 21:41:18 · 811 阅读 · 0 评论 -
机器学习降维算法三:LLE (Locally Linear Embedding) 局部线性嵌入
LLELocally linear embedding(LLE)[1] 是一种非线性降维算法,它能够使降维后的数据较好地保持原有流形结构。LLE可以说是流形学习方法最经典的工作之一。很多后续的流形学习、降维方法都与LLE有密切联系。见图1,使用LLE将三维数据(b)映射到二维(c)之后,映射后的数据仍能保持原有的数据流形(红色的点互相接近,蓝色的也互相接近),说明LLE有效地保持了数据原有的流行结构。但是LLE在有些情况下也并不适用,如果数据分布在整个封闭的球面上,LLE则不能将它映射到...转载 2020-09-17 21:39:09 · 1233 阅读 · 0 评论 -
机器学习降维算法四:Laplacian Eigenmaps 拉普拉斯特征映射
继续写一点经典的降维算法,前面介绍了PCA,LDA,LLE,这里讲一讲Laplacian Eigenmaps。其实不是说每一个算法都比前面的好,而是每一个算法都是从不同角度去看问题,因此解决问题的思路是不一样的。这些降维算法的思想都很简单,却在有些方面很有效。这些方法事实上是后面一些新的算法的思路来源。Laplacian Eigenmaps[1] 看问题的角度和LLE有些相似,也是用graph的角度去构建数据之间的关系。它的直观思想是希望相互间有关系的点(在图中相连的点)在降维后的空间中尽.转载 2020-09-17 21:37:55 · 805 阅读 · 0 评论