weightdecay:几乎都在使用,作用是限制权重范围
dropuout:主要用在全连接层,作用是丢弃多少个神经元;一般来说,增加隐藏层数使模型先达到过拟合再droupout的效果会比减少隐藏层数避免过拟合好。
BN:用于卷积层
有待完善… …
本文探讨了深度学习中常用的正则化技巧,包括weight decay、dropout及批量归一化(BN)。weight decay几乎被普遍采用,用于限制权重的范围;dropout主要用于全连接层,通过丢弃部分神经元来防止过拟合;BN则常应用于卷积层。文中提到,在增加隐藏层数使模型达到过拟合后再使用dropout通常效果更佳。
weightdecay:几乎都在使用,作用是限制权重范围
dropuout:主要用在全连接层,作用是丢弃多少个神经元;一般来说,增加隐藏层数使模型先达到过拟合再droupout的效果会比减少隐藏层数避免过拟合好。
BN:用于卷积层
有待完善… …

被折叠的 条评论
为什么被折叠?