请用贝叶斯几率说明Dropout的原理

640?wx_fmt=gif


640?wx_fmt=gif

今日面试题


请用贝叶斯几率说明Dropout的原理?


解析:


 

 


 

回想一下使用Bagging学习,我们定义 k 个不同的模型,从训练集有替换采样构造 k 个不同的数据集,然后在训练集上训练模型 i。

Dropout的目标是在指数级数量的神经网络上近似这个过程。Dropout训练与Bagging训练不太一样。在Bagging的情况下,所有模型是独立的。

在Dropout的情况下,模型是共享参数的,其中每个模型继承的父神经网络参数的不同子集。参数共享使得在有限可用的内存下代表指数数量的模型变得可能。在Bagging的情况下,每一个模型在其相应训练集上训练到收敛。


在Dropout的情况下,通常大部分模型都没有显式地被训练,通常该模型很大,以致到宇宙毁灭都不能采样所有可能的子网络。取而代之的是,可能的子网络的一小部分训练单个步骤,参数共享导致剩余的子网络能有好的参数设定。


END

640?wx_fmt=gif

今日学习推荐


机器学习集训营第八期

火热报名中


2019年5月6日开课


前140人特惠价:15199 


报名加送18VIP[包2018全年在线课程和全年GPU]


且两人及两人以上组团还能各减500元

有意的亲们抓紧时间喽


咨询/报名/组团可添加微信客服

julyedukefu_02


扫描下方二维码

免费试听

640?wx_fmt=png

长按识别二维码


640?wx_fmt=gif


640?wx_fmt=gif

一文览尽人工智能波澜壮阔70年

面试常问的经典排序算法全攻略

0元快速入门Python数据分析

如何理解模型的过拟合与欠拟合,以及如何解决?

哪些机器学习算法不需要做归一化处理?

一文详解:什么是B树?

34个最优秀好用的Python开源框架

Python打牢基础,从19个语法开始!


扫描下方二维码  关注:七月在线实验室 


后台回复:100   免费领取【机器学习面试100题】

后台回复:干货 免费领取全体系人工智能学习资料

后台回复: 领资料 【NLP工程师必备干货资料】

▼更多精彩推荐,请关注我们▼ 640?wx_fmt=png 640?wx_fmt=jpeg 640?wx_fmt=gif “阅读原文”我们一起进步 640?wx_fmt=png在看点一下
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值