关于DL中的过拟合中的dropout

本文探讨了Dropout技术如何防止神经网络过拟合。通过减少模型的复杂度、模拟集成学习效果以及提高模型泛化能力三个方面进行了解释。

dropout为什么可以防止过拟合呢?

1. 个人理解:dropout后这个model 的function set变小,model表现能力下降

2. 相当于ensemble,因为drop out有一定的随机性,最后train出来的model相当于很多个model的“合体”,有效降低了variance,防止overfitting

3. drop out相当于去掉了一部分特征,这样就不会出现“有2只眼睛的才是猫”这种overfitting的情况,因为drop out自后可以训练出即使只有一只眼睛也能判断是猫的model



dropout自后test的时候需要和train的时候保持一致,

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值