车辆重识别代码笔记12.18

1、实例归一化(Instance Normalization)和批量归一化(Batch Normalization)

实例归一化(Instance Normalization)

  • 计算步骤

  1. 对于每个输入样本,在每个通道上分别计算均值和标准差。

  2. 使用每个通道上的均值和标准差,对该样本中的每个通道内的元素进行归一化。

  • 区别:实例归一化独立于批次和通道。每个样本都有自己的归一化参数。

  • 适用场景:适用于图像生成、风格迁移等需要保留每个样本独特性的任务,因为它不会引入批次间的相关性,更适合处理单个样本或小批量的情况。

批量归一化(Batch Normalization)

  • 计算步骤

  1. 对于每个通道,计算整个批次中该通道上的均值和标准差。

  2. 使用整个批次的均值和标准差,对每个样本内的通道进行归一化。

  • 区别:批量归一化考虑了整个批次的统计信息,因此具有一定的批次间相关性,能够加速训练收敛、稳定梯度流动。

  • 适用场景:适用于加速训练、改善模型稳定性的任务,如分类和深度卷积神经网络。

2、contiguous()函数的使用

contiguous() 是 PyTorch 中一个常用的张量操作,它的作用是确保一个张量在内存中是

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值