- 博客(3)
- 资源 (1)
- 收藏
- 关注
原创 ResNet残差网络学习笔记
在这之前,理论上来说,神经网络深度越深可以提取到更多的数据特征,但事实上会出现会出出现梯度消失的情况。但当网络层数加深时,梯度在传播过程中会逐渐消失(梯度弥散),无法有效地对前层网络全重进行优化。即使深层卷积深度不断增加,出现梯度为0的情况,但由于多了个‘1’(shortcurt connnect),梯度反向传播的时候也能持续传递下去,不会出现阻断的情况。在传统的平原神经网络里边,可能网络训练已经达到最优,但随着网络的继续epoch,全重不断更新,但可能会导致全重朝着的错误的方向更新。
2023-12-26 11:08:03
407
原创 YOLOv5训练遇到bug记录
---------------------------------------------------------------定义函数-----------------------------------------在datasets.py脚本里边定义函数:img2label_paths。根据images文件夹的路径寻找labels的路径失败。重新运行train.py,既可正常训练。
2023-11-01 11:18:31
483
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人