论文地址: Semi-Supervised Learning with Ladder Networks
会议: NIPS 2015
任务: 半监督分类
1. 摘要
我们将监督学习与深度神经网络中的无监督学习相结合。所提出的模型经过训练,可以通过反向传播同时最小化监督和非监督成本函数的总和,从而避免了分层预训练的需要。我们的工作建立在 Valpola 提出的梯形网络之上,我们通过将模型与监督相结合来扩展该梯形网络。
2. 算法描述
本文主要是在前任的深度半监督模型上,添加了一些适配以完成半监督任务。阅读这篇论文需要一些前置知识,貌似是有两个版本,一个是会议的(NIPS),内容精炼,不太容易读懂;还有一个版本,是arxiv的,较为详细。


结合这两张图,大致的计算流程算是比较清晰了。
这里主要是讨论一下算法中对于损失的计算。
输入数据:
有标签数据:
{ x ( n ) , t ( n ) ∣ 1 ≤ n ≤ N } \{\mathbf{x}(n), t(n) \mid 1 \leq n \leq N\} {
x(n),t(n)∣1≤n≤N}
其中,对于任意样本 x ( i ) \mathbf{x}(i) x(i)的标签为 t ( i ) t(i) t(i), 1 ≤ i ≤ N 1 \leq i \leq N 1≤i≤N。
无标签数据:
{ x ( n ) ∣ 1 ≤ n ≤ N } \{\mathbf{x}(n) \mid 1 \leq n \leq N\} {
x(n)∣1≤n≤N}
C = C c + C d (1) C=C_{\mathrm{c}}+C_{\mathrm{d}}\tag{1}

本文介绍了Semi-Supervised Learning with Ladder Networks的论文,该研究结合监督和无监督学习,通过反向传播同时优化两种损失函数,避免了预训练的需求。论文提出了一种扩展的梯形网络模型,用于半监督分类任务。损失函数包括有监督的交叉熵损失和无监督的去噪自编码器损失,其中后者衡量了不同层间去噪与原始数据的差异。实验在MNIST数据集上进行,尽管处理的是‘排列不变MNIST’,即无位置信息的手写数字,增加了任务难度。
最低0.47元/天 解锁文章
1343

被折叠的 条评论
为什么被折叠?



