Dropout与DropConnect

Dropout和DropConnect是两种用于防止神经网络过拟合的技术。Dropout在训练阶段随机关闭部分神经元,而在测试阶段则整体乘以保留概率p。DropConnect则是随机将权重设为0,影响的是节点间的连接。这两种方法通过减少节点和连接的共适应性来提升模型泛化能力。尽管DropConnect在测试阶段需要额外的计算,但它们都能有效地缓解过拟合问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

为了防止模型过拟合,dropout是一种trick,之前提到Batch Normalization的使用可以不必再使用dropout,但是我们还是有必要温习下什么是dropout。

Dropout

dropout在全连接层使用。在训练阶段,对于每个节点,以p概率将其输出值保留,以1-p概率将其输出值乘以0。在测试阶段,输出结果要乘以p。原因是:保持训练阶段和测试阶段的期望值相同。训练阶段,对于每个节点,dropout之前的输出是x, 经历dropout之后的期望值是 p x + ( 1 − p ) ∗ 0 = p x px+(1-p)*0 = px px+(1

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值