weightdecay:几乎都在使用,作用是限制权重范围
dropuout:主要用在全连接层,作用是丢弃多少个神经元;一般来说,增加隐藏层数使模型先达到过拟合再droupout的效果会比减少隐藏层数避免过拟合好。
BN:用于卷积层
有待完善… …
weightdecay:几乎都在使用,作用是限制权重范围
dropuout:主要用在全连接层,作用是丢弃多少个神经元;一般来说,增加隐藏层数使模型先达到过拟合再droupout的效果会比减少隐藏层数避免过拟合好。
BN:用于卷积层
有待完善… …