Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning

文章汉化系列目录



摘要

深度学习工具在应用机器学习中获得了极大的关注。然而,针对回归和分类问题的这些工具并未捕捉模型的不确定性。相比之下,贝叶斯模型提供了一个数学上有依据的框架来推理模型的不确定性,但通常伴随着巨大的计算开销。本文提出了一种新的理论框架,将深度神经网络(NNs)中的dropout训练视为深度高斯过程中的近似贝叶斯推理。该理论的直接结果为我们提供了使用dropout神经网络建模不确定性的工具——从现有模型中提取那些至今被丢弃的信息。这解决了深度学习中表示不确定性的问题,同时避免了牺牲计算复杂度或测试准确性。我们对dropout的不确定性进行了广泛的研究,评估了各种网络架构和非线性激活函数在回归和分类任务中的表现,以MNIST为例。我们展示了与现有最先进方法相比,在预测对数似然值和均方根误差(RMSE)上的显著提升,并最终在深度强化学习中应用了dropout的不确定性。

1、Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning这篇论文讲了什么

《Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning》这篇论文探讨了如何通过使用深度神经网络中的 dropout 技术来表示模型的不确定性,并将其与贝叶斯推理联系起来。

论文的主要内容可以总结如下:

  1. 背景与动机:

    • 传统的深度学习方法,如回归和分类,并不直接捕捉模型的不确定性。然而,在很多实际应用中,了解模型预测的不确定性是至关重要的,尤其是在决策过程中。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值