- 博客(26)
- 收藏
- 关注
原创 AMFTCNet学习记录
先进行F1=16个(1×K1)的时间卷积,然后对于每个时间卷积,都进行N=2的C×1的通道卷积,形状为32×32×1×1000然后P1=8的池化,然后利用大小为(1,K2)的F2可分离卷积核来捕获4 Hz以上的频率信息,其中K2为16,然后输入到MSB中。PSA:然后MSB的每个分支独立进行自注意力机制,QKV来生成每个时间的权重再乘X,即进行了时间注意力机制,在进入TCN模块,当然三个分支三个尺度的膨胀卷积+残差。这是卷积的公式,W是卷积所对应的矩阵,三条斜线,每行都是同样的数(都是学习的卷积核参数)
2025-06-23 20:30:35
275
原创 MSCF+GCONV
MSCF(Multi-Scale Context Fusion)多尺度上下文融合:MSCF 的核心是通过 空间注意力驱动的动态多尺度融合:先是一个普通分支,仔细看左侧就是普通的注意力机制,先平均池化,在卷积激活再sigmoid再与原来的X相乘,主要还是右侧:先是不同通胀率的多分支卷积,来学习不同尺度的信息 ,然后进行拼接,再形成空间注意力(即在特征维度上进行最大池化和平均池化)形状为2×H×W,再1×1卷积为3×H×W,然后sigmoid然后分成3份,分别与多分支卷积之后的特征F相乘,即形成在空间注意力
2025-06-18 18:07:23
545
原创 DDGCNN(动态分解图卷积神经网络)用于SSVEP 学习记录
3.利用X 进行1×1卷积把特征图先变为dim,然后合并通道和时间(方便后面的矩阵乘法),再与上面的Φ矩阵相乘,再分开通道和时间,再加入残差与Φ矩阵相乘之前的dim个特征图相加,再进行1×1卷积把特征图由dim变为输出特征图。再与静态分支相加进行特征融合作为结果(静态分支进行3×1的时候已经变为输出特征图了)SE注意就结束了,根据添加注意力以后的squeeze个数先全连接为dim * dim的数生成Φ矩阵,再全连接生成planes个数(与3×1的时间卷积结果相乘组成静态分支);整体的流程图如上图所示。
2025-04-07 20:43:31
201
原创 SEMSCNN-2025学习记录
首先是滤波出两个子带(不包括基频),加上原信号,就是三个子带,先使用1×1卷积进行三个子带的融合,再进行120个C×1的卷积核进行通道卷积,形状变为1×50×120;对每个特征图进行1×3的时间卷积,再进行120个1×1的逐点卷积,形状变为1×50×120,然后接入SE模块,学习如何对120个特征图进行融合。第三个分支是对120个特征图的每一个进行1×13卷积核大小的时间卷积。第一个分支是对120个特征图的每一个进行1×3卷积核大小的时间卷积。这里可否继续对每一个分支进行卷积+残差。
2025-03-26 21:42:03
202
原创 EEG-Incep和EEG-ITNet学习记录
EEG-TCNet就是再EEGNet的基础上,把最后的逐点卷积换成了TCN模块,TCN实际上是两个空洞卷积+残差。
2025-03-25 22:50:21
1479
原创 EEGNet与EEGNex学习记录
首先进行F1个1×32的时间卷积,然后在F1个每个特征图上进行4个1×32的时间卷积,进一步提取时间特征,输出形状为F1*4×C×T,,然后再F1×4个每个特征图上进行D个C×1的通道卷积,所以形状F1*4*D×1×T,然后再池化,形状为F1*4*D×1×T//4,然后再在F1*4*D的每个特征图上进行1×16,空洞率为。这就是EEGNet,他并没有着急融合特征图之间的信息,从通道卷积就开始,对于F1的每个特征图做D个C×1的通道卷积,然后再对每个D×F1个特征图做时间卷积,最后在通过逐点卷积学习。
2025-03-19 22:40:58
543
原创 残差网络ResNet与稠密连接网络DenseNet的学习记录
残差块的作用:在神经网络中,随着网络层数的增加,模型可能会遇到以下问题::梯度在反向传播的过程中逐渐变小,导致浅层网络的参数无法有效更新。: 即使没有梯度消失,更深层的网络性能也可能不如更浅层的网络残差块的提出是为了解决这些问题。它的核心思想是引入,使得信息可以直接绕过某些层,从而让网络更容易训练。
2025-03-18 15:55:25
2082
原创 FACT-Net学习记录
先进行16个1×16的时间卷积,在进行16个1×1的可分离特征提取,所以输出信号还是16×1×T//8,再BN,再ELU,再平均池化,再droupout.就结束了。Channel Conv是8个C×1的卷积核构成 提取通道上的信息 再BN 再激活 再平均池化 再dropout。Temporal Conv是16个1×64的卷积核构成 提取时间上的信息 再BN。先得出标量,再卷积再softmax,,得出每个特征层的权重,后再与原特征相乘。Depth Aware Conv是一个特征维度上的注意力机制。
2025-03-17 20:39:53
387
1
原创 LMDA-Net学习记录2
大致思想是:先让特征F从通道维度进行自适应平均池化,把22个通道池化为1个,池化后形状变为9×1×100,之后有一个小技巧,进行维度转换,transpose(C,D),转换为1×9×100便于卷积,然后再在时间维度上进行卷积,进一步提取时间特征,conv(pooling(F))后形状依旧为1×9×100,现在在开始softmax,对于每一个时间T,在9个维度上,进行softmax,所以在100个T上,每个通道的权重都不同。第一部分是时间卷积,卷积核大小为1×75,卷积核数量为24个,然后BN,然后激活。
2025-03-15 15:04:03
835
原创 sbCNN学习用于ssvep
第一个conv用于子带合并 所以卷积核在通道×时间 上是1×1,实际上是1×1×3,3 即每个子带一个权重吗,相当于一个卷积核。第三个conv用于提取时间特征 所以卷积核在通道×时间 上是1×2,步长为2,不是same,不是常见的,卷积核数量为120,所以输出形状为 1(通道)×25(T)×120(卷积核数量)第二个conv用于通道合并 所以卷积核在通道×时间 上是9×1,实际上也是9×1×1,卷积核数量为120,所以输出形状是1(通道)×50(T)×120(不是子带了,为卷积核的数量)
2025-03-14 21:43:01
303
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅