竞争无监督学习与贝叶斯监督学习技术
竞争无监督学习
在竞争无监督学习过程中,会引入边界效应。由于神经元会相互拖动彼此的码本向量,位于阵列边界的神经元会感受到一种将其码本向量拉向阵列内部区域的有效力,这是因为边界外没有神经元拉动它们。这表现为“渔网”边界与数据区域边界会保持一定的依赖于参数 σ 的距离。
为了应对这种情况,在实际应用中,我们会选择与时间相关的 σ,类似于与时间相关的学习率:
- 学习率:(\eta(t) = \frac{\eta(0)}{1 + t/\tau_{\eta}})
- 范围参数:(\sigma(t) = \frac{\sigma(0)}{1 + t/\tau_{\sigma}})
自组织映射(SOM)有许多应用,包括机器人中的传感器融合、数据可视化、数据库挖掘(在杂乱或高维数据中寻找隐藏的低维规律)、数据预处理以及医学诊断(在医学数据中寻找因果关系)等。
以下是 SOM 算法的一些示例:
- 当输入数据为平面上的点((n = 2)),且神经元阵列大小为 (10×10)(即 100 个码本向量)时,不同的距离参数 σ 和学习率的时间依赖性会对结果产生影响。
- 从图 5.17 可以看出,σ 足够大才能捕捉数据的正确拓扑结构,但也会产生与 σ 相关的边界效应。当 σ 过小时,会失去正确的拓扑结构;当 σ 处于中间值时,只有局部正确性;边界神经元的码本向量与数据边界保持与 σ 相关的距离。
- 图 5.18 展示了学习率下降速度的影响。当学习率过快趋近于零时,系统可能会陷入次优的静止状态,拓扑结构仅局部正确。
下面是相关的练习:
- 练习 5.
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



