一、本文介绍
作为入门性篇章,这里介绍了SK网络注意力在YOLOv8中的使用。包含SK原理分析,SK的代码、SK的使用方法、以及添加以后的yaml文件及运行记录。
二、SK原理分析
SK官方论文地址:SK注意力文章
SK注意力机制:SK网络中的神经元可以捕获具有不同比例的目标对象,实验验证了神经元根据输入自适应地调整其感受野大小的能力。其SK模块的原理结构如下图所示。该方法由三个部分组成:Split,Fuse,Select。
Split就是一个multi-branch的操作,用不同的卷积核进行卷积得到不同的特征;
Fuse部分就是用SE的结构获取通道注意力的矩阵(N个卷积核就可以得到N个注意力矩阵,这步操作对所有的特征参数共享),这样就可以得到不同kernel经过SE之后的特征;
Select操作就是将这几个特征进行相加。
相关代码:
SK注意力的代码,如下。
from torch.nn import init
from collections import OrderedDict
class SKAttention(nn.Module):
def __init__(self, channel=512, kernels=[1, 3, 5, 7], reduction=16, group=1, L=32):
super().__init__()
self.d = max(L, channel // reduction)
self.convs = nn.ModuleList([])
for k in kernels:
self.convs.append