
机器学习
文章平均质量分 93
dzzhouhahaha
这个作者很懒,什么都没留下…
展开
-
win10下关于tensorflow-gpu指定版本安装步骤
关于tensorflow-gpu的安装,共有三步:1.安装CUDA,2.安装cudnn,3.安装anaconda以及tensorflow。这里需要事先声明,CUDA和cudnn以及tensorflow都有对应的版本关联。因此在安装之前需要对其了解。一、关于CUDA的安装首先,安装VS,我这里参考的博客是需要安装VS用于验证CUDA是否安装成功,其他的博客也有没安装VS的,可以自行选择吧。注...原创 2020-02-03 19:26:13 · 1528 阅读 · 0 评论 -
多种机器学习算法总结
K近邻算法K近邻算法优点就是算法简单,很容易理解,也很方便。缺点就是计算量大,每次输入一个向量x,把它归类时总要计算一遍离所有点的距离,并且排序。这十分麻烦,对于高维的数据以及样本量较大的数据。其计算量是十分大的,因此不建议使用。还有一个缺点就是,输入一个n1的向量X,结果需要计算其距离,变成了一个nn的矩阵,因此是数据变大,对存储而言也是一种压力。决策树决策树是一种有监督学习的方式,...原创 2019-04-04 09:59:37 · 494 阅读 · 2 评论 -
CART决策树剪枝个人理解
@CART决策树剪枝个人理解本文是针对CART树的个人理解在看统计学习方法关于CART树的剪枝是,感觉书上讲得很迷惑,因此基于其他博客以及书上内容得出自己的理解。首先确定CART树的损失函数:C∂(T) = C(T)+∂|T|;式中C(T)表示预测的精度,即子树T的错误数量/测试集数量,|T|表示子树T的叶子节点数量;C∂(T)表示子树T的整体损失。C∂(t) = C(t)+∂ ...原创 2019-04-01 11:22:11 · 594 阅读 · 0 评论 -
支持向量机
支持向量机分为线性可分支持向量机、线性支持向量机、非线性支持向量机线性可分支持向量机线性可分支持向量机针对的对象是线性可分的数据。即我可以找一个超平面将数据完全划分开。线性可分支持向量机的策略是使数据到超平面的距离最大,即硬间隔最大化(这里与感知机进行区分,感知机的策略是让误分类点到超平面的距离最小,最后即为0。感知机目的只是找到一个超平面可以将数据正确划开,且采用梯度下降的方式跟新权重和偏置...原创 2019-04-12 16:41:30 · 213 阅读 · 0 评论 -
朴素贝叶斯与EM算法的区别
1.朴素贝叶斯是有监督学习,EM算法为无监督。朴素贝叶斯需要知道数据的(x,y)配对,才能计算出先验概率和后验概率,而EM算法是对所有的隐层都进行计算求显层,不需要对数据进行标签。,只需要知道有多少种类的隐层即可2.贝叶斯算法没有考虑数据样本之间的关联性,直接是利用统计方法计算属于某一隐层的个数、以及某一显层的个数,利用出发获得贝叶斯分类器的参数。3.朴素贝叶斯算法忽略了样本这一维度,是建立在...原创 2019-04-26 19:41:18 · 1929 阅读 · 0 评论 -
K近邻与K-means算法区别
对于K近邻算法而言,K近邻是一种分类算法,属于有监督范围,需要样本标签;而K-means是无监督学习算法,属于聚类K近邻的算法流程:① 确定计算点与各分类点的距离;②选取K个机理最近的点③选取K个点中,属于某一类点数最多的类作为归类点K-means算法的流程:①确定K个聚类中心②针对某一个计算点,计算其与每个聚类中心的距离,选取距离最小聚类类别,将该点判为该聚类。③利用均值重新计算...原创 2019-04-27 21:31:01 · 4709 阅读 · 0 评论 -
基于密度峰值的聚类方法
基于密度峰值的聚类方法,首先定义点的①局部密度ρi②点i的距离γi点的局部密度指的是某一点在一定范围内附近点的数量或该数量的函数。对于离散数据分布而言,点i的密度函数可以定义为对于连续数据分布,点i的密度函数可以利用高斯函数定义为:点的距离:指的是在所有比某个数据点的局部密度都大的数据点中,与该数据点之间的距离的最小值。即可以理解为将所有点的密度都求取一遍之后按照密度从大到小将数据点进...原创 2019-05-06 16:13:42 · 2177 阅读 · 0 评论 -
HMM解决的三大问题
HMM能解决的三大问题①评估问题:已知HMM模型参数(π,A,B)和显示状态序列,求该序列出现的概率②学习问题:已知HMM显示状态序列,求使该显示状态序列概率最大的模型参数(π,A,B)作为HMM的模型参数③预测问题:已知HMM模型参数(π,A,B)和显示状态序列,求对应的概率最大的隐藏状态序列。但是这个前提是已知HMM模型参数中的隐藏状态个数和显示状态的个数。...原创 2019-06-25 16:15:11 · 978 阅读 · 0 评论