基于BYY和谐学习的高斯混合模型同时进行模型选择和特征选择及LBP算子在近红外面部图像中的特性研究
1 高斯混合模型的模型选择与特征选择
1.1 相关定义与似然函数
在高斯混合模型里,若特征来自与标签无关的公共分布 $p(y_l|\lambda_l)$,则该特征为无关特征;而相关特征 $l$ 的密度定义为 $p(y_l|\theta_{jl})$,这里的 $j$ 代表混合模型的第 $j$ 个分量。假设这些变量相互独立,似然函数可写成如下形式:
[p(y|\theta) = \sum_{j=1}^{k} \alpha_j p(y|\theta_j) = \sum_{j=1}^{k} \alpha_j \prod_{l=1}^{D} (\rho_l p(y_l|\theta_{jl}) + (1 - \rho_l) q(y_l|\lambda_l))]
其中,$\rho_l$ 是第 $i$ 个特征相关的概率,$\theta_{jl}$ 和 $\lambda_l$ 是参数。
1.2 传统模型选择方法
传统解决复合高斯混合建模中模型选择和参数学习或估计问题的方法,是通过信息准则、编码准则和统计选择准则等,来选取数据集中作为聚类的最优高斯数量 $k^*$。常见的准则有赤池信息准则(AIC)、贝叶斯推理准则(BIC)、最小描述长度(MDL)和最小消息长度(MML)等,其中 AIC 和 MML 准则应用较为频繁。然而,这些方法的验证过程计算量巨大,因为需要在大量可能的 $k$ 值下重复整个参数学习过程,而且现有的选择准则存在一定局限性。
1.3 统计学习方法
自 20 世纪 90 年代起,出现了一些解决
超级会员免费看
订阅专栏 解锁全文
1万+

被折叠的 条评论
为什么被折叠?



