代码:https://github.com/LiuZhe6/CS231N
为了防止神经网络过拟合数据,可以采用dropout方法。其主要思想是:对隐藏层中部分输出或者权重随机置为0。
Dropout
forward pass
题目要求使用inverted dropout,其主要思想是在训练阶段在mask的基础上处以p,使得在测试阶段不需要修改。
layers.py中dropout_forward()
if mode == 'train':
#######################################################################
# Implement training phase forward pass for inverted dropout. #
# Store the dropout mask in the mask variable. #
#######################################################################
# *****START OF YOUR CODE (DO NOT DELETE/MODIFY THIS LINE)*****
mask

本文深入解析Inverted Dropout方法,一种有效的神经网络正则化技术,用于防止过拟合。通过在训练阶段调整dropout过程,无需在测试阶段进行额外操作,简化了模型应用。文章详细介绍了Inverted Dropout的前向传播和反向传播实现,并讨论了其在不同场景下的应用效果。
最低0.47元/天 解锁文章
862





