tensorflow中batch_normalization 使用

本文详细解释了在网络中使用批标准化(Batch Normalization, BN)层的工作原理。特别指出,在训练阶段,BN层会在每个批次内计算均值和方差;而在测试阶段,则采用训练过程中各批次均值和方差的平均值。此外,文中还提供了TensorFlow中实现BN层的具体代码示例。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

当我们在网络中使用BN是,在训练和测试时归一化时使用的均值和方差不同的:
训练时:是在每个batch中计算均值和方差,
而测试时是使用训练时得到的每个batch的均值和方差的平均值。
即:
在这里插入图片描述
在tensorflow中加入BN时需要
训练时将BN层中的is_training 设置为Ture
测试时将BN层中的is_training 设置为Flase

  update_ops = tf.get_collection(tf.GraphKeys.UPDATE_OPS) 
  with tf.control_dependencies(update_ops):
    train_op = optimizer.minimize(loss)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值