- 博客(6)
- 收藏
- 关注
原创 Datawhale X 李宏毅苹果书AI夏令营
批归一化(Batch Normalization,简称BN)是深度学习中一种常用的技术,由Sergey Ioffe和Christian Szegedy在2015年提出。其核心原理是在网络训练的每一层,对每批次的输入或输出数据进行规范化处理,使其具有零均值和单位方差。这一过程可以显著提升神经网络的训练效率,增强模型的泛化能力。
2024-09-02 14:54:34
1350
原创 Datawhale夏令营 CV
对于一张输入图像,YOLO的输出是一个S×S×(B×5+C)的张量,其中每个边界框包含5个预测值:(x, y, w, h, confidence),分别表示边界框的中心坐标(相对于网格的偏移量)、宽度和高度(相对于整个图像的归一化值),以及置信度(表示边界框内存在目标的概率与边界框和真实框之间的交并比IOU的乘积)。- 置信度误差:分为包含目标的边界框和不包含目标的边界框,前者采用较大的权重,后者采用较小的权重。- 对于特征图中的每个网格,预测B个边界框的位置和大小,以及每个边界框的置信度。
2024-08-23 23:19:20
377
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
2