概率视角下的对偶监督学习:原理、算法与应用
在机器学习领域,结构对偶性不仅可以从重建角度理解,还能从概率视角进行阐释。本文将详细介绍基于不同概率方程的对偶学习算法,特别是对偶监督学习,包括其原理、算法以及在多个领域的应用。
对偶学习算法概述
从概率角度来看,结构对偶性可引出多种对偶学习算法,主要包括:
- 对偶监督学习:利用联合概率约束,增强从有标签数据中的学习效果。
- 对偶推理:在推理过程中借助条件概率约束。
- 对偶半监督学习:利用边际概率约束,从无标签数据中学习。
对偶监督学习的联合概率原理
在监督学习场景下,我们考虑如何利用结构对偶性提升从有标签数据的学习效果。首先定义一些符号:
- 原始任务:以空间 (X) 中的样本为输入,映射到空间 (Y),学习条件分布 (P(y|x; \theta_{XY})),由参数 (\theta_{XY}) 确定,其中 (x \in X),(y \in Y)。
- 对偶任务:以空间 (Y) 中的样本为输入,映射到空间 (X),学习条件分布 (P(x|y; \theta_{YX})),由参数 (\theta_{YX}) 确定。
对于任意 (x \in X),(y \in Y),联合概率 (P(x, y)) 有两种等价计算方式:(P(x, y) = P(x)P(y|x) = P(y)P(x|y))。若两个模型 (\theta_{XY}) 和 (\theta_{YX}) 完美,则其参数化的条件分布应满足等式:
[P(x)P(y|x; \theta_{XY}) = P(y)P(x|y; \theta_{YX}), \forall x \in X,
对偶监督学习原理与应用
超级会员免费看
订阅专栏 解锁全文
11

被折叠的 条评论
为什么被折叠?



