深度学习中的线性因子模型:原理、应用与挑战
1. 深度学习研究背景与挑战
在深度学习领域,之前我们主要聚焦于解决监督学习问题,即给定足够的映射示例,学习如何将一个向量映射到另一个向量。然而,实际中并非所有问题都属于这一范畴,我们可能需要生成新的示例、确定某些点的可能性、处理缺失值,以及利用大量未标记的示例或相关任务的示例。当前工业应用中,学习算法通常需要大量的监督数据才能达到良好的准确性。
无监督学习面临着诸多困难,其中一个核心原因是被建模的随机变量具有高维度性,这带来了两个显著的挑战:
- 统计挑战 :我们想要区分的配置数量会随着感兴趣的维度数量呈指数级增长,这很快就会远远超过我们可能拥有的示例数量(或在有限计算资源下能够使用的示例数量),这涉及到泛化问题。
- 计算挑战 :许多用于学习或使用训练模型的算法(特别是那些基于估计显式概率函数的算法)涉及到难以处理的计算,这些计算随着维度数量呈指数级增长。在概率模型中,这种计算挑战源于需要执行难以处理的推理或仅仅是需要对分布进行归一化。
为了应对这些难以处理的计算,有两种思路:一是对其进行近似,二是通过设计避免这些难以处理的计算。近年来,已经提出了几种生成模型,以实现后一种思路。
2. 线性因子模型概述
线性因子模型是一些最简单的概率模型,包含潜在变量。这些模型有时被用作混合模型或更大的深度概率模型的构建块,同时也展示了构建生成模型所需的许多基本方法,而更高级的深度模型则会进一步扩展这些方法。
线性因子模型通过使用随机的线性解码器函数来定义,该函数通过对潜在变量 (h) 进行
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



