Dropout 学习记录

Dropout技术在深度学习中的应用与原理解析
本文详细介绍了Dropout技术,用于缓解深度神经网络中的过拟合问题。Dropout在训练阶段随机关闭神经元以实现模型集成效果,而在测试阶段则对权重进行调整。在Pytorch中,可通过nn.Dropout或F.Dropout实现Dropout,Keras也有相应实现。

参考:

深度学习中Dropout原理解析 https://blog.youkuaiyun.com/program_developer/article/details/80737724


目录

1 为什么要用 Dropout?

2 什么是 Dropout?

步骤:

(1)训练阶段:

(2)在测试模型阶段

 3. Dropout为什么可以解决过拟合?

4 Dropout注意事项?

4.1 缩放

4.2 使用方式

5 Pytorch 中 Dropout 使用

(1)nn.Dropout(0.5)

(2)F.Dropout(x,  p=0.5, training=self.training)

(3) Dropout 在  Keras 和 Pytorch 中的实现


1 为什么要用 Dropout?

在机器学习的模型中,如果模型的参数太多,而训练样本又太少,训练出来的模型很容易产生过拟合的现象。

在训练神经网络的时候经常会遇到过拟合的问题,过拟合具体表现在:

模型在训练数据上损失函数较小预测准确率较高

但是在测试数据上损失函数比较大预测准确率较低

为了解决过拟合问题,一般会采用模型集成的方法,即训练多个模型进行组合。此时,训练模型费时就成为一个很大的问题,不仅训练多个模型费时,测试多个模型也是很费时。

综上所述,训练深度神经网络的时候,总是会遇到两大缺点:

(1)容易过拟合

(2)费时

Dropout 可以针对这两个问题,比较有效的缓解过拟合的发生,在一定程度上达到正则化的效果

 

2 什么是 Dropout?

当一个复杂的前馈神经网络被训练在小的数据集时,容易造成过拟合。Dropout 可以通过阻止特征检测器的共同作用,缓解过拟合,来提高神经网络的性能。

过程:在前向传播的时候,让某个神经元的激活值以一定的概率p停止工作,这样可以使模型泛化性更强,因为它不会太依赖某些局部的特征,如下图:

 

步骤:

(1)训练阶段:

 

  • . 没有Dropout的网络计算公式:

           

  • . 采用Dropout的网络计算公式:

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值