神经网络的优化(5)----Dropout

本文深入探讨了Dropout在神经网络优化中的作用,解释了如何通过随机丢弃节点来防止过拟合,增强了模型的泛化能力。介绍了Dropout的基本原理、实现方式以及在实际应用中的调整策略。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、Dropout怎么做                                                                                                                点击此处返回总目录

二、为什么Dropout有效

 

 

 

讲一下Dropout,我们先讲一下dropout是怎么做的,然后再讲为什么要这么做。

                          

 

一、Dropout怎么做

Dropout是怎么做的呢?

在training的时候,每一次要update之前,我们都对某一个神经元(包括input的地方,input Layer的每一个element也算是一个神经元)做采样。这个采样决定,这个神经元要不要被丢掉。每个神经元有p%的概率被丢掉。

                     

如果一个神经元被sample到被丢掉,跟它相连的weight也失去作用。所以做完这个sample之后,你的网络结构就变瘦了,变得比较细长。然后再train这个比较细长的网络。

                            

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值