- 博客(47)
- 资源 (1)
- 收藏
- 关注
原创 YOLOv8网络轻量化改进之ShuffleNetV2主干
YOLOv8轻量化改进,以ShuffleNetv2替换YOLOv8的主干结构。参数量减少将近三分之二。
2024-08-04 17:10:22
295
原创 YOLOv5轻量化改进之mobilenetv3,更换mobilenetv3中的注意力机制。
YOLOv5改进之更换Mobilenetv3中注意力机制
2023-11-26 11:23:33
608
6
原创 Efficient Pyramid Split Attention金字塔分割注意力机制,YOLOv5改进之PSA注意力机制
yolov5改进之PSA,psac3结构
2023-10-25 21:00:13
420
1
原创 YOLOv5改进之Coordinate Attention
最近关于移动网络设计的研究已经证明了通道注意(例如,挤压和激励注意)对于提高模型性能的显着有效性,但它们通常忽略了位置信息,而位置信息对于生成空间选择性注意图非常重要。在本文中,我们提出了一种新的移动网络注意机制,将位置信息嵌入到通道注意中,我们称之为“坐标注意”。与通过二维全局池化将特征张量转换为单个特征向量的通道注意不同,坐标注意将通道注意分解为两个一维特征编码过程,分别沿着两个空间方向聚合特征。这样可以在一个空间方向上捕获远程依赖关系,同时在另一个空间方向上保持精确的位置信息。
2023-10-21 21:16:08
307
1
原创 YOLOv5/v7如何训练自己的数据集
-patience参数,倒数第四个参数,这个参数设置的是早停机制,这里写的是100,那么就代表着如果连续一百轮,数据集的准确率没有上升,那么就会自动停止训练,如果不想使用早停,那么可以设置一个很大的参数,比如将100改为10000。因为验证集和测试集都没有参加训练,所以有的论文里,也会把验证集和测试集当成同一个来使用,训练完成的模型,都要通过val.py,在测试集上进行验证,在测试集上获取的结果,才是最后的结果。--epochs参数,这个参数是设置训练轮次的,大家按照自己的需求,自己设置就可以了。
2023-10-21 09:55:49
318
1
原创 YOLOv5改进之Convolutional Block Attention Module
我们提出了卷积块注意模块(CBAM),这是一种简单而有效的前馈卷积神经网络注意模块。给定一个中间特征映射,我们的模块沿着两个独立的维度依次推断注意力映射,通道和空间,然后将注意力映射乘以输入特征映射以进行自适应特征细化。因为CBAM是一个轻量级的通用模块,它可以无缝地集成到任何CNN架构中,开销可以忽略不计,并且可以与基础CNN一起进行端到端训练。我们通过在ImageNet-1K、MS COCO检测和VOC 2007检测数据集上进行大量实验来验证我们的CBAM。
2023-10-20 21:15:56
102
1
原创 YOLOv5改进之添加ECA注意力机制
近年来,通道注意机制在提高深度卷积神经网络(cnn)性能方面显示出巨大的潜力。然而,大多数现有方法致力于开发更复杂的注意力模块以获得更好的性能,这不可避免地增加了模型的复杂性。为了克服性能和复杂性权衡的矛盾,本文提出了一种高效通道注意(ECA)模块,该模块只涉及少量参数,但能带来明显的性能增益。通过对SENet中信道注意模块的分析,我们通过经验证明避免降维对于学习信道注意非常重要,适当的跨信道交互可以在显著降低模型复杂性的同时保持性能。
2023-10-09 10:17:05
593
1
原创 廖雪峰python教程---pycharm版之四
如果要取一个list或者一个tuple的部分元素,那么可以通过直接打印的方式或者是通过一个循环来实现。但是这种方式非常繁琐,所以可以通过切片来实现也可以通过切片的操作取出list中的某一段数列切片操作在tuple中仍然有效切片操作对字符串也同样有效。
2023-04-08 18:57:06
251
原创 YOLOv5改进之添加注意力机制
本文主要给大家讲解一下,如何在yolov5中添加注意力机制,这里提供SE通道注意力的改进方法,其他注意力的添加方法,大同小异首先找到SE注意力机制的pytorch代码class SELayer(nn.Module): def __init__(self, c1, r=16): super(SELayer, self).__init__() self.avgpool = nn.AdaptiveAvgPool2d(1) self.l1 = n
2022-05-21 17:11:03
10961
16
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人