[机器学习算法]多种聚类学习算法背后的原理

本文深入探讨无监督学习中的聚类技术,介绍聚类的基本原理、数学描述、性能度量,以及k均值算法、高斯混合聚类、密度聚类DBSCAN和层次聚类的算法原理和实现步骤。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

简介

在无监督学习中unsupervised learning中,训练样本的标记信息是未知的,其目标是通过对无标记训练样本的学习来揭示数据的内在性质及规律,为进一步的数据分析提供基础。而此类学习任务中应用最广、研究最多的即聚类clustering
以通俗的语言讲解,聚类学习将数据集中的样本分成若干个互不相交的子集(称为簇cluster)。保持簇内差异尽可能小而簇间差异尽可能大我们就可以将每个簇映射到一些潜在的类别。

需要注意的是,划分的类别对于聚类而言事先是位置的,聚类过程仅能将数据集自动划分为不同的簇,但每个簇对应的概念语义是需要使用者自己来把握和命名。

数学描述

照旧我们以数学语言描述聚类学习,假定样本集D={x1,x2,...,xm}D = \{x_1, x_2, ..., x_m\}D={x1,x2,...,xm}包含mmm个无标记样本,每个样本xi=(xi1;xi2;...;xim)x_i = (x_{i1};x_{i2};...;x_{im})xi=(xi1;xi2;...;xim)是一个nnn维特征向量,则聚类算法将样本DDD划分为kkk个不相交的簇{Cl∣l=1,2,...,k}\{C_l | l=1,2,...,k\}{Cll=1,2,...,k}。我们用λj∈1,2,...,k\lambda_j\in{1,2,...,k}λj1,2,...,k表示样本xjx_jxj的簇标记cluster label,则聚类结果可用包含mmm个元素的簇标记向量λ=(λ1;λ2;...;λm)\lambda=(\lambda_1;\lambda_2;...;\lambda_m)λ=(λ1;λ2;...;λm)表示。

性能度量

从本质上讲,我们希望聚类形成簇内方差尽可能小而簇间方差尽可能大的分类结果,即相同类别的元素尽可能相似而归属不同类别的元素尽可能不同。

对数据集D={x1,x2,...,xm}D=\{x_1,x_2,...,x_m\}D={x1,x2,...,xm},假定通过聚类给出的簇划分为C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck},定义:

avg(C)=2∣C∣(∣C∣−1))∑1≤i<j≤∣C∣dist(xi,xj)diam(C)=max1≤i<j≤∣C∣dist(xi,xj)dmin(Ci,Cj)=minxi∈Ci,xj∈Cjdist(xi,xj)dcen(Ci,Cj)=dist(μi,μj)μ=1∣C∣∑1≤i≤∣C∣xi avg(C)=\frac{2}{|C|(|C|-1))}\sum_{1\leq i<j \leq |C|}dist(x_i, x_j) \\ diam(C)=max_{1 \leq i < j \leq |C|}dist(x_i, x_j) \\ d_{min}(C_i,C_j)=min_{x_i\in C_i, x_j\in C_j}dist(x_i, x_j) \\ d_{cen}(C_i,C_j) = dist(\mu_i, \mu_j) \\ \mu = \frac{1}{|C|}\sum_{1\leq i \leq |C|}x_i avg(C)=C(C1))21i<jCdist(xi,xj)diam(C)=max1i<jCdist(xi,xj)dmin(Ci,Cj)=minxiCi,xjCjdist(xi,xj)dcen(Ci,Cj)=dist(μi,μj)μ=C11iCxi
其中dist(xi,xj)dist(x_i, x_j)dist(xi,xj)衡量两个样本之间的距离,μ\muμ表示簇CCC的中心点,avg(C)avg(C)avg(C)表示簇CCC内样本间的平均距离,diam(C)diam(C)diam(C)表示簇CCC内样本间的最远距离,dmin(Ci,Cj)d_{min}(C_i,C_j)dmin(Ci,Cj)表示两个簇最近样本间的距离,dcen(Ci,Cj)d_{cen}(C_i,C_j)dcen(Ci,Cj)表示两个簇中心点间的距离。
基于这些指标,我们常用下面的聚类性能度量聚类效果:

  • DB指数Davies-Bouldin Index:值越小表示聚类效果越好
    DBI=1k∑i=1kmax⁡j≠i(avg(Ci)+avg(Cj)dcen(μi,μj)) DBI = \frac{1}{k}\sum_{i=1}^{k} \max_{j \neq i}(\frac{avg(C_i)+avg(C_j)}{d_{cen}(\mu_i,\mu_j)}) DBI=k1i=1kj=imax(dcen(μi,μj)avg(Ci)+avg(Cj))
  • Dunn指数Dunn Index:值越大表示聚类效果越好
    DI=min⁡1≤i≤k{min⁡j≠i(dmin(Ci,Cj)max1≤l≤kdiam(Cl))} DI = \min_{1 \leq i \leq k}\{\min_{j\neq i}(\frac{d_{min}(C_i,C_j)}{max_{1 \leq l \leq k} diam(C_l)}) \} DI=1ikmin{j=imin(max1lkdiam(Cl)dmin(Ci,Cj))}
    给定样本xi=(xi1;xi2;...;xin)x_i=(x_{i1};x_{i2};...;x_{in})xi=(xi1;xi2;...;xin)xj=(xj1;xj2;...;xjn)x_j=(x_{j1};x_{j2};...;x_{jn})xj=(xj1;xj2;...;xjn),度量两个样本点间距离dist(xi,xj)dist(x_i, x_j)dist(xi,xj)的方法有很多种,最常用的就是“闵可夫斯基距离”Minkowski distance
    distmk(xi,xj)=(∑u=1n∣xiu−xju∣p)1p dist_{mk}(x_i,x_j) = (\sum_{u=1}{n}|x_{iu}-x_{ju}|^p)^{\frac{1}{p}} distmk(xi,xj)=(u=1nxiuxjup)p1

p=2p=2p=2时,闵可夫斯基距离等价于欧式距离Euclidean distancep=1p=1p=1时,闵可夫斯基距离等价于曼哈顿距离Manhattan distance

k均值算法

给定样本集D={x1,x2,...,xm}D=\{x_1,x_2,...,x_m\}D={x1,x2,...,xm}k-means最小化聚类所得簇划分C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck}的平方误差:
E=∑i=1k∑x∈Ci∣∣x−μi∣∣22 E=\sum_{i=1}^{k}\sum_{x\in C_i}||x-\mu_i||_2^2 E=i=1kxCixμi22
最小化上式需要遍历样本集DDD中所有可能的簇划分,这本身就是一个NP难的问题,因此k-means算法采取了贪心策略,通过迭代优化来近似求解。
输入:样本集D={x1,x2,...,xm}D=\{x_1,x_2,...,x_m\}D={x1,x2,...,xm},聚类簇数kkk
输出:最优的簇划分C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck}

  1. DDD中随机抽取kkk个样本作为初始均值向量{μ1,μ2,...,μk}\{\mu_1,\mu_2,...,\mu_k \}{μ1,μ2,...,μk}
  2. 遍历DDD中的每个样本xjx_jxj,计算它与各均值向量μi(1≤i≤k)\mu_i(1\leq i \leq k)μi(1ik)的距离:dji=∣∣xj−μi∣∣2d_{ji}=||x_j-\mu_i||_2dji=xjμi2,将样本划入离它最近的簇中:λj=argmini∈1,2,...,kdji\lambda_j = argmin_{i\in{1,2,...,k}}d_{ji}λj=argmini1,2,...,kdji,对应的簇更新为Cλj=Cλj∪{xj}C_{\lambda_j}=C_{\lambda_j}\cup \{x_j\}Cλj=Cλj{xj}
  3. kkk个簇重新计算均值向量:μi′=1∣Ci∣∑x∈Cix{\mu_i}'=\frac{1}{|C_i|}\sum_{x\in C_i}xμi=Ci1xCix,更新均值向量
  4. 重复1-3步骤直至均值向量不再更新

高斯混合聚类

1.多元高斯分布

先回顾以下多元高斯分布的概率密度函数:
p(x)=1(2π)n2∣∑∣12e−12(x−μ)T∑−1(x−μ) p(x) = \frac{1}{(2\pi)^{\frac{n}{2}}|\sum|^{\frac{1}{2}}}e^{-\frac{1}{2}(x-\mu)^T\sum^{-1}(x-\mu)} p(x)=(2π)2n211e21(xμ)T1(xμ)
其中μ\muμ是均值向量,∑\sumn×nn\times nn×n的协方差矩阵,高斯分布完全由均值向量μ\muμ和协方差矩阵∑\sum这俩参数确定,因此我们可将其记为p(x∣μ∑)p(x|\mu \sum)p(xμ)

2.高斯混合分布

基于多元高斯分布的概念,我们可定义高斯混合分布:
pM(x)=∑ikαi⋅⋅p(x∣μi,∑i) p_{\mathcal{M}}(x)=\sum_{i}^k \alpha_i··p(x|\mu_i, \sum_i) pM(x)=ikαip(xμi,i)
该分布共由kkk个混合分布组成,每个混合成分对应一个高斯分布,而αi>0\alpha_i>0αi>0为相应的混合系数mixture coefficient,且满足∑i=1kαi=1\sum_{i=1}^{k}\alpha_i = 1i=1kαi=1

3.高斯混合聚类原理

假设样本的生成过程由高斯混合分布给出:首先根据αi\alpha _iαi定义先验分布选择高斯混合成分,然后根据被选择的混合成份的概率密度函数进行采样,从而生成相应的样本。
给定训练集D={x1,x2,...,xm}D=\{x_1,x_2,...,x_m\}D={x1,x2,...,xm}由上述过程生成,令随机变量zj∈{1,2,...,k}z_j\in \{1,2,...,k\}zj{1,2,...,k}表示生成样本xjx_jxj的高斯混合成分,其取值未知。根据贝叶斯定理,可以计算zjz_jzj的后验分布为:
pM(zj=i∣xj)=P(zj=i)×p(M)(xj∣zj=i)pM(xj)=αi×p(xj∣μi,∑i)∑l=1kαl×p(xj∣μl,∑l) \begin{aligned} p_{\mathcal{M}}(z_j=i|x_j) &= \frac{P(z_j=i)\times p_{\mathcal(M)}(x_j|z_j=i)}{p_{\mathcal{M}}(x_j)} \\ &= \frac{\alpha_i \times p(x_j|\mu_i, \sum_i)}{\sum_{l=1}^{k}\alpha_l\times p(x_j|\mu_l,\sum_l)} \end{aligned} pM(zj=ixj)=pM(xj)P(zj=i)×p(M)(xjzj=i)=l=1kαl×p(xjμl,l)αi×p(xjμi,i)
pM(zj=i∣xj)p_{\mathcal{M}}(z_j=i|x_j)pM(zj=ixj)给定了样本xjx_jxj由第iii个高斯混合成分生成的后验概率,我们将其记为γji\gamma_{ji}γji,高斯混合聚类将样本集DDD划分为kkk个簇C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck},每个样本xjx_jxj的簇标记λj\lambda_jλj确定如下:
λj=argmin⁡i∈{1,2,...,k}γji \lambda_j=arg\min_{i\in\{1,2,...,k\}}\gamma_{ji} λj=argi{1,2,...,k}minγji

4.高斯混合聚类算法

输入:样本集D={x1,x2,...,xm}D=\{x_1,x_2,...,x_m\}D={x1,x2,...,xm};高斯混合成分个数kkk
输出:簇划分C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck}

  1. 初始化高斯混合分布参数{(αi,μi,∑i)∣1≤i≤k}\{(\alpha_i,\mu_i,\sum_i)|1\leq i \leq k\}{(αi,μi,i)1ik}
  2. 计算xjx_jxj由高斯各混合部分生成的后验概率,即γji=pM(zj=i∣xj)\gamma_{ji}=p_{\mathcal{M}}(z_j=i|x_j)γji=pM(zj=ixj)
  3. 计算新均值向量μi′=∑j=1mγjixj∑j=1mγji{\mu_i}'=\frac{\sum_{j=1}^{m}\gamma_{ji}x_j}{\sum_{j=1}^{m}\gamma_ji}μi=j=1mγjij=1mγjixj,计算新协方差矩阵∑i′=∑j=1mγji(xj−μi′)(xj−μi′)T∑j=1mγji{\sum_i}'=\frac{\sum_{j=1}^{m}\gamma_{ji}(x_j-{\mu_i}')(x_j-{\mu_i}')^T}{\sum_{j=1}^{m}\gamma_{ji}}i=j=1mγjij=1mγji(xjμi)(xjμi)T,计算新混合系数αi′=∑j=1mγjim{\alpha_i}' = \frac{\sum_{j=1}^{m}\gamma_{ji}}{m}αi=mj=1mγji,并更新对应的三个模型参数
  4. 重复进行2-3步骤直至满足停止条件(EM算法达到最大迭代次数或者似然函数增长很少)
  5. 根据λj=argmin⁡i∈{1,2,...,k}γji\lambda_j=arg\min_{i\in\{1,2,...,k\}}\gamma_{ji}λj=argmini{1,2,...,k}γji将样本xjx_jxj划到对应的簇中,即Cλj=Cλj∪{xj}C_{\lambda_j}=C{\lambda_j}\cup\{x_j\}Cλj=Cλj{xj}

密度聚类DBSCAN

密度聚类density-based clustering假设聚类结构能通过样本分布的紧密程度确定,密度聚类算法从样本密度的角度来考察样本之间的可连接性,并基于可连接样本不断扩展聚类簇以获得最终的聚类结果。

1.密度聚类的相关概念

给定数据集D={x1,x2,...,xm}D=\{x_1,x_2,...,x_m\}D={x1,x2,...,xm},有如下概念:

  • ϵ\epsilonϵ邻域:Nϵ={xi∈D∣dist(xi,xj)≤ϵ}N_{\epsilon}=\{x_i\in D|dist(x_i,x_j)\leq \epsilon\}Nϵ={xiDdist(xi,xj)ϵ},即样本集中与xjx_jxj距离不超过ϵ\epsilonϵ的样本集合
  • 核心对象core object:若xjx_jxjϵ\epsilonϵ邻域内至少包含MinPtsMinPtsMinPts个样本,则它是一个核心对象
  • 密度直达directly density-reachable:若xjx_jxj位于xix_ixiϵ\epsilonϵ邻域中,且xix_ixi是核心对象,则称xjx_jxjxix_ixi密度直达
  • 密度可达density-reachable:对xix_ixixjx_jxj,若存在样本序列p1,p2,...,pnp_1,p_2,...,p_np1,p2,...,pn,其中p1=xi,pn=xjp_1=x_i, p_n=x_jp1=xi,pn=xjpi+1p_{i+1}pi+1pip_ipi密度直达,则称xjx_jxjxix_ixi密度可达
  • 密度相连density-connect:对xix_ixixjx_jxj,如果存在xkx_kxk使得xix_ixixjx_jxj均由xkx_kxk密度可达,则称xix_ixixjx_jxj密度相连

下图给出了密度聚类相关概念的直观展示:

MinPts=3MinPts=3MinPts=3的情况下,虚线表示ϵ\epsilonϵ邻域,x1x_1x1是核心对象,x2x_2x2x1x_1x1密度直达,x3x_3x3x1x_1x1密度可达,x3x_3x3x4x_4x4密度相连。

2.密度聚类原理

基于上述的概念,密度聚类将“簇”定义为:由密度可达关系导出的最大密度相连样本集合。从数学角度上讲,即给定邻域参数(ϵ,MinPts)(\epsilon,MinPts)(ϵ,MinPts),簇C⊆DC \subseteq DCD是满足以下性质的非空样本子集:

  • 连接性connectivityxi∈C,xj∈C⇒xi和xj密度相连x_i \in C, x_j \in C \Rightarrow x_i\text{和} x_j \text{密度相连}xiC,xjCxixj密度相连
  • 最大型maximalityxi∈C,xj由xi密度可达⇒xj∈Cx_i \in C, x_j\text{由}x_i\text{密度可达} \Rightarrow x_j \in CxiC,xjxi密度可达xjC

不难证明,若xxx为核心对象,则由其密度可达的所有样本组成的集合记为X={x′∈D∣x′由x密度可达}X = \{{x}' \in D| {x}'\text{由}x\text{密度可达}\}X={xDxx密度可达}满足连接性与最大性。

3.密度聚类算法

输入:样本集D={x1,x2,...,xm}D=\{x_1, x_2,...,x_m\}D={x1,x2,...,xm};邻域参数(ϵ,MinPts)(\epsilon, MinPts)(ϵ,MinPts)
输出:簇划分C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck}

  1. 遍历所有样本,如果样本xjx_jxjϵ\epsilonϵ邻域满足∣Nϵ(xj)∣≥MinPts|N_{\epsilon}(x_j)| \geq MinPtsNϵ(xj)MinPts,那么将其加入核心对象集合Ω=Ω∪{xj}\Omega=\Omega \cup\{x_j\}Ω=Ω{xj}
  2. 随机抽取一个核心对象o∈Ωo\in \OmegaoΩ,遍历该核心对象ϵ\epsilonϵ邻域内的所有样本点qqq(包括它自身),如果该样本也是核心对象,则Δ=Nϵ(q)∩Γ\Delta = N_{\epsilon}(q) \cap \GammaΔ=Nϵ(q)Γ
  3. 对于2步骤中的核心对象,继续搜寻其ϵ\epsilonϵ邻域内的所有样本点,更新Δ\DeltaΔ,生成聚类簇C1=ΔC_1 = \DeltaC1=Δ
  4. 继续随机抽取一个核心对象生成聚类簇,重复2-3步骤,直至所有核心对象均被访问过为止。

直观展示如下:

层次聚类

层次聚类hierarchical clustering试图在不同层次上对数据集进行划分,从而形成树形的聚类结构,数据集的划分既可以采用“自底向上”的聚合策略,也可以采用“自顶向下”的分拆策略。

AGNES是一种自底向上聚合策略的层次聚类算法,它先将数据集中每个样本看成一个初始聚类簇,然后在算法运行的每一步中找到最近的两个聚类簇进行合并,该过程不断重复直至达到预设的聚类簇个数,关键在于如何计算连个聚类簇之间的距离。

1.计算距离的方式

最小距离:dmin(Ci,Cj))=min⁡x∈Ci,z∈Cjdist(x,z)d_{min}(C_i,C_j))= \min_{x\in C_i,z \in C_j}dist(x,z)dmin(Ci,Cj))=minxCi,zCjdist(x,z)
最大距离:dmax(Ci,Cj))=max⁡x∈Ci,z∈Cjdist(x,z)d_{max}(C_i,C_j))= \max_{x\in C_i,z \in C_j}dist(x,z)dmax(Ci,Cj))=maxxCi,zCjdist(x,z)
平均距离::davg(Ci,Cj))=1∣Ci∣∣Cj∣∑x∈Ci∑z∈Cjdist(x,z)d_{avg}(C_i,C_j))=\frac{1}{|C_i||C_j|}\sum_{x\in C_i}\sum_{z \in C_j}dist(x,z)davg(Ci,Cj))=CiCj1xCizCjdist(x,z)
当聚类簇距离分别由dmind_{min}dmindmaxd_{max}dmaxdavgd_{avg}davg计算时,AGNES算法被相应地成为“单链接”single-linkage、“全链接”complete-linkage或“均链接”average-linkage算法。

2.算法

输入:样本集D={x1,x2,...,xm}D=\{x_1, x_2,...,x_m\}D={x1,x2,...,xm};聚类簇距离度量函数ddd;聚类簇数kkk
输出:簇划分C={C1,C2,...,Ck}C=\{C_1,C_2,...,C_k\}C={C1,C2,...,Ck}

  1. 每个样本最为单独一类,Cj={xj}C_j=\{x_j\}Cj={xj}
  2. 计算任意两个样本簇间的距离:M(i,j)=d(Ci,Cj)M(i, j) = d(C_i,C_j)M(i,j)=d(Ci,Cj)
  3. 找到距离最近的两个聚类簇Ci∗C_{i*}CiCj∗C_{j*}Cj,将其合并Ci∗=Ci∗∪Cj∗C_{i*}=C_{i*}\cup C_{j*}Ci=CiCj,对于所有下标大于jjj的簇,将聚类簇CjC_jCj重编号为Cj−1C_{j-1}Cj1
  4. 根据最新的簇更新一下第2步骤计算的簇间距离矩阵
  5. 重复2-4步骤直至当前聚类簇个数等于预设的聚类簇数kkk
3.树状图

AGNES算法执行到所有样本出现在同一个簇中,可得到如下的树状图:

在树状图的特定层次上分割即可得到对应的簇划分结果,上图中虚线划分的位置将样本分为7个簇,理解一下背后的原理。

Reference

[1] 周志华 机器学习

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值