关于通道

理解起来有些麻烦,可能多用用理解的更深一些。



通道中加滤镜

通道中输入文字

通道中用钢笔/套索工具画选区,填充


将通道作为选区

将选区作为通道

通道注意力机制是注意力机制在通道维度上的应用,其核心在于关注输入特征图中各个通道的重要性。 在人的信息处理过程中,注意力机制是将注意力放在需要关注的信息上,过滤无关信息,而通道注意力机制在特征处理时也有着类似的思想,它会去挖掘不同通道对于整体信息表达的重要程度。 通道注意力机制的思路流程如下:首先对输入的特征图进行全局池化和平均池化,这一步是在空间维度进行池化,目的是压缩空间尺寸,以便于后续学习通道的特征;接着将得到的全局和平均池化的结果送入到多层感知机(MLP)中进行学习,基于MLP学习通道维度的特征以及各个通道的重要性;最后将MLP输出的结果进行“加”操作,再经过Sigmoid函数的映射处理,得到最终的“通道注意力值” [^4]。 以教学场景为例,激励操作可以类比通道注意力机制。老师根据各个科目(通道)的重要性分数来调整教学方式,对于得分较高的科目给予更多关注,得分较低的科目减少教学资源,这就如同通道注意力机制根据预测的通道重要性来调整不同通道的特征图 [^3]。 ```python import torch import torch.nn as nn class ChannelAttention(nn.Module): def __init__(self, in_planes, ratio=16): super(ChannelAttention, self).__init__() self.avg_pool = nn.AdaptiveAvgPool2d(1) self.max_pool = nn.AdaptiveMaxPool2d(1) self.fc1 = nn.Conv2d(in_planes, in_planes // ratio, 1, bias=False) self.relu1 = nn.ReLU() self.fc2 = nn.Conv2d(in_planes // ratio, in_planes, 1, bias=False) self.sigmoid = nn.Sigmoid() def forward(self, x): avg_out = self.fc2(self.relu1(self.fc1(self.avg_pool(x)))) max_out = self.fc2(self.relu1(self.fc1(self.max_pool(x)))) out = avg_out + max_out return self.sigmoid(out) ```
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值