
机器学习
catgray
编程爱好者
展开
-
GAN 生成对抗网络
生成模型判别模型密度估计样本生成WGANGANWGAN-GP原创 2019-05-31 15:06:00 · 342 阅读 · 0 评论 -
Tensorflow
新手入门原创 2019-06-01 11:37:12 · 114 阅读 · 1 评论 -
监督学习-分类模型1-线性分类器(Linear Classifiers)
模型介绍:线性分类器(linear classification),是一种假设特征与分类结果存在线性关系的模型。这个模型通过累加计算每个维度的特征与各自权重的乘机来帮助类别决策。原创 2019-09-10 10:37:57 · 5156 阅读 · 0 评论 -
监督学习-分类模型2-支持向量机(Support Vector Classifier)
模型介绍图2-5中 H1H_1H1在这些训练样本上表现不佳,本身就带有分类错误;H2H_2H2和H3H_3H3如果作为这个二分类问题的线性模型,在训练集上的表现是完美的。然而,这些分类模型最终都是要应用在未知分布的测试数据集上,因此我们更加关注如何最大限度的为未知分布的数据提供足够的待预测空间。比如,有一个黑色样本稍稍向右偏离H2H_2H2,那么这个黑色样本很有可能被误判为白色样本;而...原创 2019-09-10 14:58:40 · 1886 阅读 · 0 评论 -
监督学习-分类模型3-朴素贝叶斯(Naive Bayes)
模型介绍朴素贝叶斯与前述基于线性假设的模型(线性分类器和支持向量机分类器)不同,朴素贝叶斯分类器的构造基础是贝叶斯理论。抽象一些说,朴素贝叶斯分类器会单独考量每一维度特征被分类的条件概率,进而综合这些概率并对其所在的特征向量做出分类预测。因此,这个模型的基本数学假设是:各个维度上的特征被分类的条件概率之间是相互独立的。采用概率模型来描述,定义x=<x1,x2,⋅⋅⋅,xn&...原创 2019-09-10 16:23:44 · 1483 阅读 · 0 评论 -
监督学习-分类模型4-K近邻(k-nearest neighbor, k-NN)
模型介绍K近邻算法,即是给定一个训练数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的K个实例,这K个实例的多数属于某个类,就把该输入实例分类到这个类中。看下图:有两类不同的样本数据,分别用蓝色的小正方形和红色的小三角形表示,而图正中间的那个绿色的圆所标示的数据则是待分类的数据。如果K=3,绿色圆点的最邻近的3个点是2个红色小三角形和1个蓝色小正方形,少数从属于多数,基于统计的方法...原创 2019-09-10 16:52:33 · 1376 阅读 · 0 评论 -
监督学习-分类模型5-决策树(Decision Tree)
模型介绍原创 2019-09-10 16:57:02 · 1536 阅读 · 0 评论 -
监督学习-分类模型6-集成模型(Ensemble)
模型介绍常言道:“一个篱笆三个桩,一个好汉三个帮”。集成分类模型便是综合考量多个分类器的预测结果,从而做出决策。具体分为两种:一种是利用相同的训练数据同时搭建多个独立的分类模型,然后通过投票的方式,以少数服从多数的原则作出最终的分类决策。代表模型有随机森林分类器(Random Forest Classifier)另一种是按照一定次序搭建多个分类模型。这些模型之间彼此存在依赖关系。代表模型有...原创 2019-09-11 10:24:09 · 2833 阅读 · 0 评论 -
监督学习7-回归模型-线性回归器(Linear Regression)
回归问题和分类问题的区别在于,其待测目标是连续变量,比如:价格、降水量等等。模型介绍线性分类器为了便于将原本在实数域上的结果映射到(0,1)区间,引入了逻辑斯蒂函数。而在线性回归问题中,由于预测目标直接是实数域上的数值,因此优化目标就更为简单,即最小化预测结果与真实值之间的差异。当使用一组mmm个用于训练的特征向量X=<x1,x2,⋅⋅⋅xm>X=&l...原创 2019-09-11 14:42:05 · 1243 阅读 · 0 评论