无监督显著概念学习与超像素对图像分割的影响
无监督显著概念学习
在图像分析领域,无监督显著概念学习是一项重要的研究内容。它主要聚焦于从图像数据集中自动提取显著概念,这对于图像分类和检索等任务具有重要意义。
显著掩膜效果
显著掩膜的效果在图 2 - B 和 C 中得到了直观展示。图 2 - B 显示了在计算图 2A 中的原型时所考虑的图像像素。这类图像可以通过反向投影获得,即当像素强度由直方图的显著区间建模时绘制这些像素强度。例如,与狗站在一起的男孩的红色衬衫被显著掩膜视为前景(FG)。
模型学习:变分推断
模型学习的目标是为隐藏变量 b 和 m 拟合合理的值,从而为所有模型变量找到良好的隐藏参数估计。这里采用最大似然方法,通过广义期望最大化(GEM)来学习模型。由于使用期望最大化进行精确推断在计算隐藏变量的后验时,其计算量在 H 上呈指数级增长,因此不可行。解决方案是用一个更简单的通用分布 Q({m, b}) 来近似真实的后验分布 P(m, b|h),这里假设训练样本是独立同分布的。对于 OB 模型,有 Q(h) = ∏Nn=1 q(m(n)) · q(b(n)),其中 m(n) 是掩码变量,b(n) 是与第 n 个直方图相关的背景(BG)原型索引变量,q(·) 表示多项分布,N 是数据集中样本的总数。这种公式被称为平均场形式,假设在给定数据的情况下隐藏变量是独立的。
对于每个观察到的直方图,隐藏变量的近似(对数)后验为:
log P (b, m|h) = ∑Nn=1 log [q(b(n)) ∏i q(m(n)i)] (1)
GEM 最大化数据的(对数)概率的边界:
lo
超级会员免费看
订阅专栏 解锁全文
976

被折叠的 条评论
为什么被折叠?



