软聚类技术:原理、算法与应用
一、基于神经网络的聚类
1.1 竞争学习与自组织
神经网络具有竞争学习和自组织这两个重要特性。竞争学习旨在将输入模式分配给一个或多个相互竞争的输出神经元。通常,它通过一个两层神经网络实现,其中每个输入节点都与所有输出节点相连。竞争学习可通过最小化以下误差函数来抽象表示:
[
\sum_{i = 1}^{n} \sum_{j = 1}^{K} \mu_{ij} | X_i - R_j |^2
]
其中,(\mu_{ij}) 是 (X_i) 在 (C_j) 中的隶属度,(R_j) 是聚类 (j) 中更接近 (X_i) 的原型。
自组织则通过侧向抑制来实现。其中,最具影响力的网络是自组织映射(SOM),其输出层通常是二维的。
1.2 SOM 的重要特征
- 特征提取器 :SOM 可被视为一种特征提取器,它能将高维输入向量表示为二维输出层中某个聚类的成员。
- 拓扑映射 :SOM 是一种拓扑映射,输入模式的转换会在输出层中以保留拓扑属性的方式被捕获。例如,从字符 1 到字符 7 的转换会在 SOM 的输出层中以拓扑方式被捕获。
- 胜者多占策略(WTM) :SOM 采用了一种称为胜者多占(WTM)的策略,它是胜者全得策略的软版本。通过使用适当的 (\mu_{ij}) 值,将模式 (X_i) 分配给输出层中的多个节点,借助邻域函数来实现这一点。
- SOM 的训练过程
超级会员免费看
订阅专栏 解锁全文
10万+

被折叠的 条评论
为什么被折叠?



