- 博客(4)
- 收藏
- 关注

原创 针对于yolo添加注意力添加相关位置讨论
另外若要应用于靠近head层的特征向量当中更要慎重,靠近head层的特征向量已经获取比较深层抽象的特征信息,若要使用末端添加self-attention,获取大范围的特征语义信息,会对相关目标检测识别准确率产生较大的波动。之前我在添加注意力机制的效果只是在置信度损失过程当中出现意外情况,置信度损失急剧上升的问题,自己只是从基础的数据集,超参数以及过拟合的相关基础情形下考虑,并有没对注意力机制的嵌入使用进行过多思考,最近从论坛和其他地方跟着众多大佬get到了其他的想法,就拿来用在自己相关代码当中。
2023-04-18 17:00:51
2730
3
原创 YOLOv5改进训练过程中置信度损失上升
按照以上分析原因进行修改之后发现,削减模型复杂度值之后,依然会出现该现象,所以过拟合原因排除;总结分析出三个主要原因:1.模型计算量过大,出现过拟合的现象,需要对网络框架进行削减,降低网络模型复杂度。3.学习率以及optimizer的选择出现问题,需要进行更换。从tensorboard的图像过程中看出,bbox_loss,cls_loss在训练预测之后正常下降,当时obj_loss置信度损失值在上升。最近需要对yolov5网络框架进行改进,改进训练的过程当中发现了一个奇怪的问题。
2023-04-04 15:02:12
6527
24
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人