独立成分分析(ICA)中的非参数似然比方法及应用
在信号处理和机器学习领域,独立成分分析(ICA)是一种强大的工具,用于从混合信号中分离出独立的源信号。本文将详细介绍基于最大熵、最小互信息、假设检验以及非参数似然比等不同方法构建的ICA对比函数,并通过语音应用实验评估这些方法的性能。
1. 基于最大熵的ICA对比函数
最大熵(ME)方法为构建ICA对比函数提供了一种途径。该方法通过估计解混矩阵$W_{ME}$,使神经网络非线性输出$z = g(y)$的熵$H(·)$达到最大。具体而言,当使用非线性函数$g(·)$的累积分布函数,即$g_i’(y_i) = p(y_i)$时,基于$W_{ME}$的ME方法与基于$W_{ML}$的最大似然(ML)方法等价,其等价关系由下式表示:
[
J_{ME}(X,W) = -E[\log p(g(Wx))] \triangleq H(z) = E\left[\sum_{i=1}^{m} \log p(y_i)\right] + \log|\det W| - E[\log p(x)] \propto T \log|\det W| + \sum_{t=1}^{T} \sum_{i=1}^{m} \log p(w_i x_t) = J_{ML}(X,W)
]
此公式的推导考虑了变量变换$z = g(y)$和$y_t = Wx_t$所产生的两个雅可比因子。从神经网络和信息论的角度来看,该解决方案符合信息最大化原则,因为熵的最大化能使神经网络系统的输出传递最大的信息。
2. 基于最小互信息的ICA对比函数
最大互信息(MMI)方法则提供了一种更直观的信息最大化方式。MMI - ICA算法通过最
超级会员免费看
订阅专栏 解锁全文
24

被折叠的 条评论
为什么被折叠?



