- 博客(5)
- 收藏
- 关注
原创 ResNet中残差结构
传统的深度神经网络随着层数的增加,会出现训练误差和测试误差增大的退化现象,这并非是过拟合导致的。ResNet 的残差结构通过引入跳跃连接(Skip Connection),让网络学习输入与输出之间的残差映射。其中,F(x) 是残差函数,网络只需学习输入 x 与期望输出之间的残差,而非直接学习输入到输出的完整映射,这样能降低训练难度。两种残差结构,左边适用于网络规模小的(如ResNet18),右边的适用于大规模网络(如ResNet101)(突破1000层)的同时,可以解决深度神经网络在训练时的。
2025-03-14 21:58:54
300
原创 Batch Normalization理解
我们在图像预处理过程中通常会对图像进行标准化处理,这样能够加速网络的收敛,如下图所示,对于Conv1来说输入的就是满足某一分布的特征矩阵,但对于Conv2而言输入的feature map就不一定满足某一分布规律了(注意这里所说满足某一分布规律并不是指某一个feature map的数据要满足分布规律,理论上是指整个训练样本集所对应feature map的数据要满足分布规律)。)的目的:使一个批次(Batch)feature map满足均值为0,方差为1的分布规律,:在正向传播的过程中统计得到。
2025-03-14 18:01:32
556
convert将RGBA转为L会报错
2022-09-18
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
2