【论文阅读】TEMPORAL ENSEMBLING FOR SEMI-SUPERVISED LEARNING

本文探讨了一种在半监督学习中训练深度神经网络的新方法,利用网络在不同训练阶段的输出形成集成预测,以提高未标记数据的预测准确性。主要介绍了Π Model和Temporal Ensembling两种策略,Π Model依赖输入增强和Dropout,而Temporal Ensembling通过前一epoch的输出与当前输出的差异进行无监督学习,实现更快的收敛。论文中还提出了若干未解释的技术细节,如权重衰减公式,有待进一步研究。

下载
代码地址

1. 摘要

在本文中,我们提出了一种简单有效的方法,用于在半监督环境中训练深度神经网络,其中只有一小部分训练数据被标记。我们引入了自集成,我们使用网络在不同时期的训练输出形成对未知标签的共识预测,最重要的是,在不同的正则化和输入增强条件下。与最近训练时期的网络输出相比,这种集成预测可以预期是对未知标签更好的预测器,因此可以用作训练的目标。

Notice: 文章开门见山的表示这个是半监督深度神经网络中的方法。主要的贡献是提出对于模型扰动的思路,提出了两个模型, Π \mathbf{\Pi} Π model, Temporal ensembling。

2. 算法描述

2.1. Π \mathbf{\Pi} Π model

算法流程图
伪代码
通过论文中的流程图和伪代码,我们可以非常清晰的了解算法的大概流程。其中的一些小细节,可能需要在复现的时候才会发现,这里的话,就把自己的几个疑问记录一下,后面有回看的话再精读以解答。
Q1:论文中表述文中提出的模型深度依赖Input AugmentDropout,在

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

来日可期1314

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值