
机器学习
文章平均质量分 85
chp的博客
这个作者很懒,什么都没留下…
展开
-
吴恩达机器学习课程笔记二
多标签分类,与一般的多分类问题不同,一般的多分类问题,如手写字识别,其真正的标签只有一个,而多标签分类,如下图的人、汽车、公共汽车识别,识别出的结果可能有多个。如果神经网络使用的激活函数都是线性的,那么神经网络就只是线性回归模型,神经网络无法拟合比线性回归更复杂的模型。中间为手写字体识别只包含0,1,的二分类,使用sigmoid激活函数,使用二元交叉熵作为损失函数。的特性:让小的值变得很小,最大的值变得更大,使得分类效果更加明显更加利于分类。上图为layer n的神经元,接受layer n-1的激活值。原创 2022-11-18 21:17:06 · 1014 阅读 · 0 评论 -
Numpy学习笔记
NumPy(Numerical Python)是Python的一种开源的数值计算扩展。这种工具可用来存储和处理大型矩阵,比Python自身的嵌套列表(nested list structure)结构要高效的多(该结构也可以用来表示矩阵(matrix)),支持大量的维度数组与矩阵运算,此外也针对数组运算提供大量的数学函数库原创 2022-10-25 23:05:58 · 755 阅读 · 0 评论 -
Tensorflow2.0学习笔记一(B站课程【北京大学】Tensorflow2.0)
Tensor可以表示0~n阶数组。原创 2022-10-10 23:12:11 · 498 阅读 · 0 评论 -
p、np、np-complete、np-hard
O(1)<O(log n)<O(n)<O(n2)<O(n3)<O(2n)<O(n!)<O(nn)其中,称O(1)<O(log n)<O(n)<O(n2)<O(n3)...<O(nk)为多项式算法复杂度O(2n)<O(n!)<O(nn)为非多项式算法复杂度O(1)<O(log\ n)<O(n)<O(n^2)<O(n^3)<O(2^n)<O(n!)<O(n^n)\\原创 2022-09-30 00:22:37 · 229 阅读 · 0 评论 -
吴恩达机器学习课程笔记一
机器学习—机器无需明确编程即可学习的研究领域(非正式定义)监督学习指的是数据集有输出标签,每个数据样本都有输出标签—,监督学习在实际应用中使用较多监督学习主要有和两大类别,分类和回归都是对输入进行预测,不同之处在于分类预测的结果是有限的(一组有限的可能输出类别),而回归预测的结果是无限的(如经典的房价预测)区别与监督学习,无监督学习的数据没有标签。因为没有数据标签,无监督学习并没有预测功能,我们使用无监督学习算法来找到数据集中的某种结构或某种模式,或者只是找到数据中一些有趣的特性,这就是无监督学习。原创 2022-09-28 22:31:12 · 910 阅读 · 2 评论 -
支持向量机SVM--线性
支持向量机SVM--线性模型原创 2022-07-30 15:21:37 · 440 阅读 · 0 评论 -
Python基础语法
Python严格缩进Python通常是一行写完一条语句,但如果语句很长,我们可以使用反斜杠\来实现多行语句Python只有字符串类型无字符型Python可以在同一行中使用多条语句,语句之间使用分号分割。原创 2022-07-26 22:35:08 · 485 阅读 · 0 评论 -
K-means算法
目录算法概述算法原理算法推导算法流程K值的确定算法概述K-means算法也称为K_均值算法,用于聚类算法。聚类是一种无监督学习,他将相似的对象归于一个簇中,簇中心通过簇中所有点的均值来计算。聚类算法与分类算法的主要区别就是分类的目标类别已知,而聚类的目标类别未知。簇:所有数据点的点集合,簇中的对象是相似的质心:簇中所有点的中心(由簇中所有点的均值求得)SSE:Sum of Sqared Error 平方误差和,SSE越小表示越接近质心算法原理误差平方和SSE用来衡量K-means算法的好坏SS原创 2020-10-24 10:55:35 · 11239 阅读 · 0 评论 -
梯度下降法
基本思想:假设我们爬山,想要上山最快,我们应该从陡峭的地方上山,同样的,如果我们想要下山最快,也应当从陡峭的地方下山,这个下山的过程就是梯度下降。同样,如果从任意一点出发,需要最快搜索到函数最大值,那么我们也应该从函数变化最快的方向搜索。函数变化最快的方向就是函数的梯度,也就是函数的导数。梯度下降法的步骤:函数y=f(x1,x2,....,xn)y=f(x1,x2,....,x_n)y=f(x1,x2,....,xn) 1.确定参数η和ε\eta和\varepsilonη和ε,η\etaη为学习率。η\原创 2020-10-23 19:00:43 · 410 阅读 · 0 评论 -
一元线性回归
监督学习中,如果预测的变量是离散的,我们称其为分类(如决策树,支持向量机等),如果预测的变量是连续的,我们称其为回归。回归分析是确定两种或两种以上变量间相互依赖的定量关系的一种统计分析方法。在回归分析中,只包括一个自变量和一个因变量,且二者的关系可用一条直线近似表示,这种回归分析称为一元线性回归分析。简单来讲就是给一些离散的点,求出一条预测直线h(x)=wx+bh(x)=wx+bh(x)=wx+b,这条直线的要求是基本满足这些点的变化趋势,那么我们用什么来衡量这条直线选取的好坏呢?可以通过损失函数来衡量原创 2020-10-23 18:51:36 · 1792 阅读 · 0 评论 -
KNN分类算法
目录算法概述算法原理算法推导算法流程——伪代码或者文字描述算法实例——Python实现(代码注释很重要)电影类别分类算法结果算法评价算法概述KNN算法,也叫做K近邻算法,是机器学习中一种简单的分类算法。是一种监督学习算法 。算法原理存在一个样本数据集合,也称作训练样本集,并且样本集中每个数据都存在标签,即我们知道样本集中每一数据与所属分类的对应关系。输人没有标签的新数据后,将新数据的每个特征与样本集中数据对应的特征进行比较,然后算法提取样本集中特征最相似数据(最近邻)的分类标签。一般来说,我们只选择原创 2020-09-22 20:59:33 · 1032 阅读 · 1 评论 -
监督学习与无监督学习
目录监督学习无监督学习监督学习监督学习是算法的训练集已经提前分好了类别,训练集有标签比较常见的是分类问题和回归问题常见的算法:KNN、回归问题无监督学习无监督学习的样本是不包含标签信息的,只有一定的特征,所以由于没有标签信息,学习过程中并不知道分类结果是否正确。常见算法:K-means算法...原创 2020-09-20 21:31:57 · 309 阅读 · 0 评论