- 博客(90)
- 收藏
- 关注
原创 矩阵分析与应用
7.令A是一个与向量x无关的矩阵,则。分别是向量x的实值函数,都是向量x的实值函数,则。都是向量x的实值函数,则。是x的复向量值函数,则。
2022-08-15 19:42:09
298
原创 矩阵分析与应用
Householder 变换可以实现任意m*n矩阵A的QR分解,其原理是使用变维向量的Householder 变换,使得该向量除第一个元素外,其他元素皆变为0。矩阵,则R的所有对角线元素均为正数,并且在这种情况下Q和R二者是唯一的,若A是复矩阵,则Q和R取复值。步骤2:把列向量组按照施密特正交方法得到正交矩阵组。,而该列的其他元素全为0,接下来以此类推。的线性组合,由此构成的矩阵为正交矩阵Q。步骤1:写出矩阵A的列向量。的线性组合,则系数矩阵为R。步骤4:得出矩阵的QR分解。,而该列的其他元素全为0....
2022-08-12 17:40:19
1021
原创 矩阵分析与应用
在求解线性方程组Ax=b时,如果能通过正交变换,将m*n矩阵A分解为A=LU,其中L为m*m单位下三角矩阵(对角元素为1的下三角矩阵),U为m*n阶梯型矩阵。再求解Ux=y即得方程组的解向量x,于是,通过矩阵的LU分解,线性矩阵方程Ax=b的求解分为两个三角矩阵方程的求解。下三角矩阵G称为Cholesky三角,另外,Cholesky分解也谓之平方根方法,因为下三角矩阵G可以视为矩阵A的平方根。步骤2:使用初等行逆变换将单位矩阵变为单位下三角矩阵(这里的初等行逆变换是步骤1对应的初等行变换的逆变换)...
2022-08-08 20:00:20
1098
原创 矩阵分析与应用
矩阵分解是通过线性变换,将某个给定或已知的矩阵分解为两个或三个矩阵标准型的乘积,个别情况下会分解为两个矩阵标准型之和。对角化分解:这类分解是通过正交变换,将矩阵A对角化的,包括以下三种形式。根据矩阵A分解后的矩阵的标准型,可以分为以下四大类。3.CS分解:可看做是正交矩阵分块的同时对角化分解。CS分解相当于将一个正交矩阵的各个分块同时对角化。,其中U和V二者为酉矩阵,是正交的,选择正交矩阵。...
2022-08-05 19:45:33
1505
原创 矩阵分析与应用
Kronecker积是表示矩阵特殊乘积的一种简洁数学符号,也称直积或张量积。一个m*n矩阵A和一个p*q的矩阵B的Kronecker积记作。与两个矩阵的Kronecker积不同,广义Kronecker积是多个矩阵组成的矩阵组与另一个矩阵的Kronecker积。右Kronecker积定义:m*n矩阵A和p*q的矩阵B的右Kronecker积。左Kronecker积定义:m*n矩阵A和p*q的矩阵B的左Kronecker积。广义Kronecker积:给定N个m*r矩阵。,它是一个mp*nq的矩阵。...
2022-08-03 20:02:31
954
原创 矩阵分析与应用
两个矩阵的直和不是两个矩阵元素之间的任何求和运算,只是一种形式上的求和符号,其真实含义是将两个矩阵按照对角线位置堆放,直接组合成一个更大维数的矩阵。矩阵Hadamard积的一个主要定理是下面的Hadamard积定理。定理若m*m矩阵A,B是正定的或半正定的,则它们的Hadamard积。A是半正定矩阵,对所有m*m的半正定矩阵B成立。7.若A,B分别是m*m,n*n正交矩阵,则。为n*1求和向量,假定M是一个n*n对角矩阵。定义m*m矩阵A与n*n矩阵B的直和记作。是(m+n)*(m+n)的正交矩阵。...
2022-08-01 19:23:51
2286
原创 矩阵分析与应用
考虑非一致方程Ax=y是不存在严格满足方程组的解的,换言之,非一致方程只能有近似解,因此,我们希望寻找严格使得方程两边的误差平方和为最小的解,这一种解称为非一致方程的最小二乘解,具体来说,若用。非一致方程的最小二乘解有可能不是唯一的,但是不同的最小二乘解得到的Ax和Ax-y是唯一的。若满足上式,则称Gy为方程Ax=y的最小范数解,并称广义逆矩阵G为最小范数广义逆矩阵。比如要求得到的解的范数最小,这样得出的解就称为最小范数解,也称最短距离解。定理Gy是一致方程Ax=y的最小范数解,当且仅当。...
2022-07-29 17:16:23
641
原创 矩阵分析与应用
考虑阶的一般矩阵A,其秩k小于或等于。我们的问题是是否存在某种合适意义下的逆矩阵,使得线性方程组的解可以用这种逆矩阵表示?定义1有线性方程,若矩阵A的行之间存在的线性关系也存在于向量y的对应元素中,则该方程组称为一致方程(即至少存在一个解能够严格满足该方程组)。如矩阵A的第二行是第一行的3倍,向量y的第二个元素也是第一个元素的3倍。定义2仅当线性方程组为一致方程时。这一线性方程组方可求解。定义3当且仅当增广矩阵的秩等于矩阵的值,即时,线性方程是一致方程。定义4。...
2022-07-27 19:45:54
517
原创 矩阵分析与应用
可能即有左逆矩阵又有右逆矩阵,显然当一个正方矩阵的左逆矩阵和右逆矩阵相等时,这一矩阵是非奇异的,因此逆矩阵是一个既满足左逆矩阵又满足右逆矩阵,并且左逆矩阵和右逆矩阵相等的特殊矩阵。若A是一个m*n的矩阵,具有任意秩,A的广义逆矩阵是一个n*m的矩阵G,并且当Ax=y为一致方程时,x=Gy是线性方程Ax=y的解。满足LA=I,但不满足AL=I的矩阵L称为矩阵A的左逆矩阵,类似的,满足AR=I,但不满足RA=I的矩阵R称为矩阵A的右逆矩阵。我们讨论了矩阵求逆的三种情况逆矩阵,左逆矩阵,右逆矩阵。...
2022-07-18 20:47:08
903
2
原创 矩阵分析与应用
矩阵求逆引理A为一个n*n的可逆矩阵,并且x和y是两个n*1的向量,使得。矩阵求逆引理可以推广为矩阵之和的求逆公式,也称Woodbury公式,矩阵。矩阵求逆在信号处理,神经网络,自动控制和系统方面具有广泛的应用。特别的,如果b=1,则该公式简化为矩阵求逆引理公式。下面考虑使用递推,为此,令。由此可以得出以下四个方程。可逆,则由式(6)有。...
2022-07-14 19:50:17
1080
原创 矩阵分析与应用
一个n*n的矩阵若具有n个线性无关的列向量和n个线性无关的行向量,则被称为非奇异矩阵。如果一个矩阵是非奇异的,那么必定存在逆矩阵。反之,如果一个矩阵是奇异的,那么该矩阵不存在逆矩阵。一个n*n的正方矩阵B满足时,就称矩阵B是矩阵A的逆矩阵,记为。若一个正方矩阵A的所有元素分别都由它们的余子式代替,然后转置,所得的矩阵称为A的伴随矩阵,记作,即有:若矩阵A存在唯一的逆矩阵,则由下式给出:即矩阵的伴随矩阵adj(A)的转置等于A的转置的伴随矩阵,即有:若矩阵的逆矩阵存在,则称矩阵A是非奇异的或可逆的,关于矩阵
2022-07-12 19:33:10
1491
原创 矩阵分析与应用
行列式一个n*n的正方矩阵A的行列式记作或,定义为:若,则它的行列式由给出。矩阵A去掉第i行和第j列之后得到的剩余行列式记作,称为元素的余子式,特别地,时,称为A的主子式,若令是n*n矩阵A删去第i行和第j列之后得到的(n-1)*(n-1)子矩阵,则一个n*n矩阵的行列式等于其任意行(或列)的元素与相对应的余子式的乘积之和,即:或者:因此,行列式需要递推计算:n阶行列式由(n-1)阶行列式计算,(n-1)阶行列式又由(n-2)行列式计算等。行列式计算结果若不为零,则被称为非奇异矩阵,非奇异矩阵A存在逆矩
2022-07-08 19:46:55
990
原创 矩阵分析与应用
矩阵的二次型任意一个正方矩阵A的二次型是一个实标量,以实矩阵为例: 这是变量x的二次型函数,我们称为矩阵A的二次型。推而广之,若,且矩阵A的元素为,则二次型若两个矩阵A,B满足对角线相等,且满足,则这两个矩阵的二次型就相等。如:具有相同的二次型。即:即对于任何一个二次型函数存在许多矩阵A,它们的二次型相同,但是,只有一个唯一的对称矩阵A满足,其元素为和,其中,。因此在讨论矩阵A的二次型时,通常都假定A为实对称矩阵或复共轭对称矩阵。一个复共轭对称矩阵A称为:例如:实对称矩阵是正定的,因为二次型,仅时等式为0
2022-07-04 16:03:38
902
原创 矩阵分析与应用
本文学习来源是《矩阵分析与应用》向量子空间的基根据向量空间的定义易知,空间的多个向量的所有线性组合也属于,例如,考虑的三个n*1的向量。对于实数,由于闭合性可知,和均位于Euclidean n 空间。又由闭合性可知,在内。类似的,可以证明,也在内,这启迪我们,若是中的三个线性无关的向量,则中可以用这三个线性无关向量的线性组合表示的所有向量构成的一个子空间。从这个意义上讲,可以认为这三个线性无关向量的集合生成了Euclidean n空间的一个子空间。我们可以得出以下的子空间的定义。向量的所有线性组合的集合称为
2022-07-02 20:57:47
511
原创 矩阵分析与应用
矩阵的范数与内积实矩阵的范数记作,它是矩阵A的实值函数,必须具有以下性质:实函数是一种矩阵范数。容易验证:(1),且当即时。(2)(3)(4)对于两个矩阵的乘积,有:以下是几种典型的矩阵范数Frobenius范数这一定义可以视为向量的Euclidean范数按照矩阵各行排列的“长向量”的推广。矩阵的Frobenius范数也称Euclidean范数或者范数范数式中,是向量x的范数,范数也称p范数。行和范数列和范数若A,B是m*n的矩阵,则矩阵的范数有以下性质。与矩阵的范数密切相关的量是矩阵的内积。对于任意m*n
2022-06-30 20:24:50
3236
原创 矩阵分析与应用
向量的相似度考虑M个类型的模式,它们分别被记作。假定通过已知类型属性的观测样本,抽取出M个模式向量,给定一任意的未知模式向量x,希望判断它归属于哪一类模式,这个问题就被称为模式分类,是模式识别的基本问题之一。模式分类的基本思想是将未知的模式向量x同M个样本模式向量进行比对,看x与哪一个样本模式向量最相似,并据此作出模式分类的判断。假定分别作为未知模式向量x与已知样本模式向量之间的相似关系的符号。以x与的相似关系为例,若则称未知模式向量x与样本模式向量更相似,为了建立这种相似关系,需要定义相似度或者相异度。接
2022-06-28 20:25:09
482
原创 矩阵分析与应用
向量的内积与范数根据元素的取值方式的不同,向量分为常数向量,函数向量和随机向量。常数向量是元素为常数的向量;函数向量是元素取某个变量的函数值的向量;而随机向量则是元素为随机变量的向量。虽然常数向量,函数向量和随机向量的内积定义公式有所不同,但是无论向量取何种形式,向量的内积和范数都必须服从一定的公理。由于实向量是复向量的特例,因此以下以复向量作为讨论对象,并用R与C表示实数域和复数域。令V为复向量空间,函数称为向量x和y的内积,对所有,满足以下内积公理:令V为复向量空间,函数称为向量x的范数,对所有,下面的
2022-06-22 21:17:11
376
原创 矩阵分析与应用
协方差矩阵随机向量的自协方差矩阵定义为:式中,主对角线的元素:这表示随机变量的方差,即而非主对角线元素表示如下:这表示随机变量和之间的协方差。自协方差矩阵也是Hermitian矩阵。自相关矩阵和自协方差矩阵之间存在以下关系:互相关矩阵和互协方差矩阵推广自相关矩阵和自协方差矩阵的概念,则有随机向量和的互相关矩阵如下:互协方差矩阵:式中,是随机变量和之间的互相关。是随机变量和之间的互协方差。一个随机向量的自相关矩阵和自协方差矩阵均为正方的共轭对称矩阵,而两个维数不同的随机向量之间的互相关矩阵和互协方
2022-06-20 19:39:10
1711
原创 矩阵分析与应用
复随机向量的概率密度函数一个复随机变量定义为:其中,和分别为实值随机变量。复随机向量可以表示成复随机向量的累积分布函数定义为:其中为实数。概率密度函数定义为:累积分布函数为:特别地:随机向量的统计描述均值向量:随机向量最重要的统计运算为数学期望,考察m*1的随机向量。令随机变量的均值为,则随机向量的数学期望称为均值向量,记作,定义为:其中数学期望定义为:均值向量的元素是随机向量各个元素的均值。相关矩阵:随机向量的自相关矩阵定义为:其中,表示随机变量的自相关函数,定义为:而表示随机变量之间的互相关函
2022-06-18 16:54:28
272
原创 矩阵分析与应用
正交投影算子考虑线性算子,它将平面上的向量x映射为y轴上的正交投影w。这一线性算子称为正交投影算子。 可以得出与的分量相关方程为:或写成矩阵形式:由于是线性方程,所以正交投影算子为线性变换,相应的标准矩阵为:令和是两个向量空间,为一线性变换。(1)若是的线性子空间,则是的线性子空间。(2)若是的线性子空间,则线性反变换是的线性子空间。概率密度函数在概率论中,常称为基本事件,为事件,是事件的全体,而称为事件的概率。考虑概率空间,用表示随机变量的空间。1.实随机变量的概率密度函数一个含有m个随机变量的实值向量
2022-06-16 19:26:10
255
原创 矩阵分析与应用
线性映射在技术科学,社会科学和数学的一些分支中,不同向量空间内向量之间的线性变换起着重要的作用。因此,为了研究两个向量空间之间的关系,有必要考虑能够实现从一个向量空间到另一个向量空间的转换关系的函数。映射本身就是一类函数,因此常使用一般函数通用的符号来表示映射。若令是 空间的子空间,是的子空间,则称为子空间V到子空间W的映射(或函数,变换),它表示将子空间V的每一个向量变成子空间W的一个相对应的向量的一种规则。于是,若和,向量是的映射,即有:并称子空间是映射的始集或域,称是的终集或上域。若是向量空间的某个
2022-06-14 20:02:39
425
原创 矩阵分析与应用
实内积空间实内积空间是满足下列条件的实向量空间,中每一对向量,存在向量和的内积服从以下公理:典范内积:对实n阶向量空间定义向量,,它们之间的内积称为典范内积。称为n阶Euclidean空间或者Euclidean n 空间。 令是的两个连续函数,并且的定义域为,则之间的内积定义为:范式若是一个实向量空间,并且,则的范数(或长度)记为,并定义为长度为1的向量称为单位向量。向量和之间的距离定义为对于Euclidean n 空间,向量范数取并称为向量的Euclidean长度。向量的距离取:并称为向量和之间的Euc
2022-06-10 15:42:06
489
1
原创 矩阵分析与应用
顾名思义,集合可以理解为某些元素的集体表示,集合通常用花括号表示为花括号内为集合S的元素。若集合元素只有几个,通常会在花括号内罗列出所有的元素,例如:;若S是满足某种性质p(x)的元素x的集合,则记为。与集合运算有关的几个数学符号如下:AB均为集合时向量空间以向量为元素的集合V称为向量空间。加法运算定义为两个向量之间的加法,乘法运算定义为向量与标量域S中的标量之间的乘法。其中向量集合V中存在向量,标量域S中有两个标量。闭合性的公理加法的公理标量乘法的公理如果V中的向量为实向量,并且标量域为实数域,则称V是
2022-06-08 21:19:28
491
原创 矩阵分析与应用
矩阵的基本运算幂等矩阵:若矩阵有,则称为幂等矩阵。对合矩阵:若矩阵有,则称为对合矩阵。内积:两个矩阵之间的内积是与矩阵乘积密切相关的运算。矩阵A和B的内积记作矩阵的指数:矩阵的对数:矩阵的导数:如果矩阵A的元素都是参数t的函数,则矩阵的导数定义为:矩阵的积分:矩阵的指数函数:矩阵的指数函数的导数:矩阵乘积的导数:其中A,B都为变量t的矩阵函数。向量的线性无关性与线性相关性m*n的线性方程组可以写为Ax=b的形式,若记,则方程可以简化为:称为列向量的线性组合。若方程仅有零解。则该组向量线性无关。若存在一组
2022-06-04 20:47:04
935
原创 矩阵分析与应用-1.1-矩阵的基本运算
今天开始学习矩阵和向量的一些概念,熟悉经常使用的基本符号。矩阵与向量我们经常会遇到m*n的线形方程组,如下所示:它使用m个方程式描述了n个未知数之间的线形关系,也可以简记为的形式。其中A是m*n的一个矩阵,矩阵中的元素可以是复数也可以是实数。而X与B分别为n*1和m*1的向量,其中的的元素可以是复数也可以是实数。 , 向量分类向量在科学和工程中常被分为三种:物理向量,几何向量,代数向量。而代数向量又可以分为常数向量,函数向量,随机向量三种。接下来我们具体了解一下这些向量。根
2022-06-02 21:22:17
1239
原创 卷积神经网络CNN
我们先来了解一下什么是卷积神经网络卷积神经网络:卷积神经网络与普通神经网络非常相似。每个结点都接收输入值,并以一定的权重传递给下一个结点,最后在输出层每个结点输出每个分类的分数。分值最大的即为输入数据所属的分类。那么什么是卷积呢。卷积:数字图像中的卷积其实就是利用卷积核(卷积模板)在图像上滑动,将图像点上的像素值与对应的卷积核上的数值相乘,然后将所有相乘后的值相加作为卷积核中间像素对应的图像上像素的值。可以理解为我们使用一个过滤器(卷积核)来过滤图像的各个小区域,从而得到这些小区域的特征
2022-05-31 20:06:23
445
原创 固定激活函数的BP神经网络
BP神经网络BP神经网络是一种多层前馈神经网络,该网络的主要特点是前向预测,误差反向传播。前向预测:以上图为例,输入层有个结点,隐含层有个结点,输出层有个结点。某输入层结点到某隐含层结点的权值为。某隐含层结点到某输出层结点的权值为。输出层结点代表类别,输出层某结点的输出值最大则代表输入的数据被判断为该类别。反向传播:反向传播将误差沿原来的连接返回,修改各结点间的权值。激活函数:由于隐含层通常不止一层,因此采用非线性激活函数防止多层隐含层与一层等价。常用的激活.
2022-05-29 17:01:05
431
原创 BP神经网络-1.数据读取与基本结构
BP神经网络BP神经网络是一种多层前馈神经网络,该网络的主要特点是前向预测,误差反向传播。前向预测:以上图为例,输入层有个结点,隐含层有个结点,输出层有个结点。某输入层结点到某隐含层结点的权值为。某隐含层结点到某输出层结点的权值为。输出层结点代表类别,输出层某结点的输出值最大则代表输入的数据被判断为该类别。反向传播:反向传播将误差沿原来的连接返回,修改各结点间的权值。激活函数:由于隐含层通常不止一层,因此采用非线性激活函数防止多层隐含层与一层等价。常用
2022-05-27 18:26:27
352
原创 机器学习-矩阵分解
提出问题在一个关于用户和物品评分的矩阵中(如下图所示:用户集U={u1,u2,u3,u4},项目集I={i1,i2,i3,i4}。矩阵中的对应元素代表评分,如:u1对i2的评分为2。?代表用户未对该项目进行评分),往往矩阵中的评分会较为稀疏。其中有很多物品用户并没有对其进行评分,我们的任务就是对这些没有评分的项目进行预测。 i1 i2 i3 i4 u1 ? 2 3 ? u2 ? 4 ? 2 u3 4 ?
2022-05-25 19:59:52
872
原创 主动学习之ALEC
监督学习:在有标签的训练集上进行训练,学习这些标签与数据之间的联系。无监督学习:对训练集上的数据进行分类。与监督学习不同,这些数据没有标签。主动学习:某些情况下,数据集中有标签的数据非常少或是数据没有标签。对数据进行人工标注标签成本又非常昂贵,此时可以选择一些数据,提出标注标签的请求,将这些数据提交给专家标注标签。比如说:假设有M个没有标签的数据,可以选择其中N个数据交给专家进行标注标签。选择数据的过程并不是随意的,可以通过对M个数据进行筛选,选出有代表性的数据进行询问。最后机器可以根据这N个标
2022-05-21 20:40:59
275
原创 集成学习之 AdaBoosting - 集成器
AdaBoosting :一个把多个弱分类器(分类精度略高于50%)叠加成为强分类器(分类精度高于90%)的算法。其步骤如下:初始化训练数据的权值。训练弱分类器。如某个训练样本能被弱分类器准确分类,那么在构造下一个训练集时,其对应的权值减小。若被错误分类,那么权重增大。权值更新过的训练集会被用于训练下一个分类器。组合所有的弱分类器为一个强分类器。加大分类误差率小的弱分类器的权重,使其在最终的分类函数中起着较大的决定作用,而降低分类误差率大的弱分类器的权重,使其在最终的分类函数中起着较小的决定作用。
2022-05-19 20:04:45
402
原创 集成学习之 AdaBoosting - 树桩分类器
AdaBoosting 基本思想首先了解一下AdaBoosting 。这是一个把多个弱分类器(分类精度略高于50%)叠加成为强分类器(分类精度高于90%)的算法。其步骤如下:初始化训练数据的权值。训练弱分类器。如某个训练样本能被弱分类器准确分类,那么在构造下一个训练集时,其对应的权值减小。若被错误分类,那么权重增大。权值更新过的训练集会被用于训练下一个分类器。组合所有的弱分类器为一个强分类器。加大分类误差率小的弱分类器的权重,使其在最终的分类函数中起着较大的决定作用,而降低分类误差率大的弱分
2022-05-17 21:15:58
597
原创 集成学习之 AdaBoosting-1带权数据集
AdaBoosting 基本思想首先了解一下AdaBoosting 。这是一个把多个弱分类器(分类精度略高于50%)叠加成为强学习器(分类精度高于90%)的算法。其步骤如下:初始化训练数据的权值。 训练弱分类器。如某个训练样本能被弱分类器准确分类,那么在构造下一个训练集时,其对应的权值减小。若被错误分类,那么权重增大。权值更新过的训练集会被用于训练下一个分类器。 组合所有的弱分类器为一个强分类器。加大分类误差率小的弱分类器的权重,使其在最终的分类函数中起着较大的决定作用,而降低分类误差率大的
2022-05-15 15:17:14
490
原创 数值型数据的NB算法
之前学习了符号型数据的NB算法,现在开始学习数值型数据的NB算法。数值型的NB算法我们可以理解在一个数据集中,P(89 < humidty <91)的概率不为0,但是humidty恰好为整数90(而不是90.001等形式)的概率基本为0。再回忆一下上次学习过的符号型数据的NB算法的公式: (1)其中 argmax表示哪个类别的相对概率高, 我们就预测为该类别。k为决策总数,m为条件的总个数。我们假设数据服从正态分布,正态分布在实际中也最常见。 ...
2022-05-13 20:45:35
323
原创 决策树算法
决策树是最经典的机器学习算法,首先复习一些学习决策树过程中会用到的基本理论。基本理论1.信息熵首先了解什么是信息,什么是熵。熵:事件的不确定性称为熵。不确定性越大,熵越大。确定事件的熵为 0。事件各种可能性的分布越均匀,熵越大,因为结果越不确定。事件各种可能性的分布越不均匀,熵越小。因为结果有偏向性,不确定性在减少。信息:通过获取额外的信息可以增加事件的确定性,即消除一部分熵。消除了多少熵就是获得了多少信息。分别学习了信息和熵后,继续学习常用的信息熵公式。抛一次硬币有正反两种
2022-05-11 18:53:25
524
原创 NB 算法
基础理论:1.条件概率P(AB)=P(A)P(B∣A)P(A) 表示事件 A 发生的概率;P(AB)表示事件 A 和 B 同时发生的概率;P(B|A) 表示在事件 A发生的情况下, 事件 B 也发生的概率。2.Laplacian 平滑零概率问题:在计算事件的概率时,如果某个事件在训练集中没有出现,那么会导致该事件的概率结果为0.Laplacian 平滑是为了解决零概率的问题。举例:假设有三个仅包含字母的文本分类w1、w2、w3,在指定的训练样本中查找字母k。查找到的次数分别为0..
2022-05-09 20:54:18
606
原创 kMeans 聚类
第 56 天: kMeans 聚类算法思想:kMeans聚类算法采用距离作为相似性的评价指标,即认为两个对象的距离越近,其相似度就越大。其思想是随机选取k个对象(也可选取非对象点)作为初始的聚类中心并计算每个对象与各个聚类中心的距离,把对象分配给距离它最近的聚类中心。聚类中心以及分配给它们的对象就代表一个聚类。分配完成后每个聚类的聚类中心会根据聚类中现有的对象被重新计算,并再次计算每个对象与各个聚类中心的距离,重新把对象分配给距离它最近的聚类中心。这个过程将不断重复直到聚类中心不再改变。算法步骤:
2022-05-06 18:49:40
1776
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅