dropout层常用在最后的全连接层之间,在正向传播过程中会随机以一定概率将部分节点的值置零,这样能减轻过拟合的情况。
BN层常被用在conv卷积层与relu激活层之间,用来调整正向传播过程中卷积后特征层值的分布,可防止梯度消失或爆炸以减轻过拟合的情况。
使用@tf.function加快训练速度 - 火锅先生 - 博客园
这就是我想强调的问题所在!tf2.0号称默认动态图, 但其实调试的时候还是以类似静态图的方式进行的
所以, 需要手动在代码开始的时候加入一句:tf.config.experimental_run_functions_eagerly(True)
TF2.0 深度学习技巧:Dropout与BN层解析

本文探讨了在TF2.0中,dropout层如何通过随机置零减轻过拟合,以及BN层如何在卷积层与激活层之间调整特征分布以防止梯度问题。同时,介绍了@tf.function加速训练、早期停止、自定义损失函数、数据预处理、TensorFlow中的数据类型转换和操作,以及模型评估与预测的关键点。
最低0.47元/天 解锁文章
984

被折叠的 条评论
为什么被折叠?



