TF2-知识点

本文探讨了在TF2.0中,dropout层如何通过随机置零减轻过拟合,以及BN层如何在卷积层与激活层之间调整特征分布以防止梯度问题。同时,介绍了@tf.function加速训练、早期停止、自定义损失函数、数据预处理、TensorFlow中的数据类型转换和操作,以及模型评估与预测的关键点。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

dropout层常用在最后的全连接层之间,在正向传播过程中会随机以一定概率将部分节点的值置零,这样能减轻过拟合的情况

BN层常被用在conv卷积层与relu激活层之间,用来调整正向传播过程中卷积后特征层值的分布,可防止梯度消失或爆炸以减轻过拟合的情况

使用@tf.function加快训练速度 - 火锅先生 - 博客园

这就是我想强调的问题所在!tf2.0号称默认动态图, 但其实调试的时候还是以类似静态图的方式进行的
所以, 需要手动在代码开始的时候加入一句:
tf.config.experimental_run_functions_eagerly(True)

BN和Dropout在训练和测试时的差别_海晨威-优快云博客_bn层训练和测试的区别

https://blog.youkuaiyun.com/ytusdc/article/details/86021257

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值