自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(26)
  • 收藏
  • 关注

原创 AMFTCNet学习记录

先进行F1=16个(1×K1)的时间卷积,然后对于每个时间卷积,都进行N=2的C×1的通道卷积,形状为32×32×1×1000然后P1=8的池化,然后利用大小为(1,K2)的F2可分离卷积核来捕获4 Hz以上的频率信息,其中K2为16,然后输入到MSB中。PSA:然后MSB的每个分支独立进行自注意力机制,QKV来生成每个时间的权重再乘X,即进行了时间注意力机制,在进入TCN模块,当然三个分支三个尺度的膨胀卷积+残差。这是卷积的公式,W是卷积所对应的矩阵,三条斜线,每行都是同样的数(都是学习的卷积核参数)

2025-06-23 20:30:35 275

原创 MSCF+GCONV

MSCF(Multi-Scale Context Fusion)多尺度上下文融合:MSCF 的核心是通过 ​空间注意力驱动的动态多尺度融合​:先是一个普通分支,仔细看左侧就是普通的注意力机制,先平均池化,在卷积激活再sigmoid再与原来的X相乘,主要还是右侧:先是不同通胀率的多分支卷积,来学习不同尺度的信息 ,然后进行拼接,再形成空间注意力(即在特征维度上进行最大池化和平均池化)形状为2×H×W,再1×1卷积为3×H×W,然后sigmoid然后分成3份,分别与多分支卷积之后的特征F相乘,即形成在空间注意力

2025-06-18 18:07:23 545

原创 DDGCNN(动态分解图卷积神经网络)用于SSVEP 学习记录

3.利用X 进行1×1卷积把特征图先变为dim,然后合并通道和时间(方便后面的矩阵乘法),再与上面的Φ矩阵相乘,再分开通道和时间,再加入残差与Φ矩阵相乘之前的dim个特征图相加,再进行1×1卷积把特征图由dim变为输出特征图。再与静态分支相加进行特征融合作为结果(静态分支进行3×1的时候已经变为输出特征图了)SE注意就结束了,根据添加注意力以后的squeeze个数先全连接为dim * dim的数生成Φ矩阵,再全连接生成planes个数(与3×1的时间卷积结果相乘组成静态分支);整体的流程图如上图所示。

2025-04-07 20:43:31 201

原创 SEMSCNN-2025学习记录

首先是滤波出两个子带(不包括基频),加上原信号,就是三个子带,先使用1×1卷积进行三个子带的融合,再进行120个C×1的卷积核进行通道卷积,形状变为1×50×120;对每个特征图进行1×3的时间卷积,再进行120个1×1的逐点卷积,形状变为1×50×120,然后接入SE模块,学习如何对120个特征图进行融合。第三个分支是对120个特征图的每一个进行1×13卷积核大小的时间卷积。第一个分支是对120个特征图的每一个进行1×3卷积核大小的时间卷积。这里可否继续对每一个分支进行卷积+残差。

2025-03-26 21:42:03 202

原创 EEG-Incep和EEG-ITNet学习记录

EEG-TCNet就是再EEGNet的基础上,把最后的逐点卷积换成了TCN模块,TCN实际上是两个空洞卷积+残差。

2025-03-25 22:50:21 1479

原创 EEGNet与EEGNex学习记录

首先进行F1个1×32的时间卷积,然后在F1个每个特征图上进行4个1×32的时间卷积,进一步提取时间特征,输出形状为F1*4×C×T,,然后再F1×4个每个特征图上进行D个C×1的通道卷积,所以形状F1*4*D×1×T,然后再池化,形状为F1*4*D×1×T//4,然后再在F1*4*D的每个特征图上进行1×16,空洞率为。这就是EEGNet,他并没有着急融合特征图之间的信息,从通道卷积就开始,对于F1的每个特征图做D个C×1的通道卷积,然后再对每个D×F1个特征图做时间卷积,最后在通过逐点卷积学习。

2025-03-19 22:40:58 543

原创 残差网络ResNet与稠密连接网络DenseNet的学习记录

残差块的作用:在神经网络中,随着网络层数的增加,模型可能会遇到以下问题::梯度在反向传播的过程中逐渐变小,导致浅层网络的参数无法有效更新。: 即使没有梯度消失,更深层的网络性能也可能不如更浅层的网络残差块的提出是为了解决这些问题。它的核心思想是引入,使得信息可以直接绕过某些层,从而让网络更容易训练。

2025-03-18 15:55:25 2082

原创 FACT-Net学习记录

先进行16个1×16的时间卷积,在进行16个1×1的可分离特征提取,所以输出信号还是16×1×T//8,再BN,再ELU,再平均池化,再droupout.就结束了。Channel Conv是8个C×1的卷积核构成 提取通道上的信息 再BN 再激活 再平均池化 再dropout。Temporal Conv是16个1×64的卷积核构成 提取时间上的信息 再BN。先得出标量,再卷积再softmax,,得出每个特征层的权重,后再与原特征相乘。Depth Aware Conv是一个特征维度上的注意力机制。

2025-03-17 20:39:53 387 1

原创 LMDA-Net学习记录2

大致思想是:先让特征F从通道维度进行自适应平均池化,把22个通道池化为1个,池化后形状变为9×1×100,之后有一个小技巧,进行维度转换,transpose(C,D),转换为1×9×100便于卷积,然后再在时间维度上进行卷积,进一步提取时间特征,conv(pooling(F))后形状依旧为1×9×100,现在在开始softmax,对于每一个时间T,在9个维度上,进行softmax,所以在100个T上,每个通道的权重都不同。第一部分是时间卷积,卷积核大小为1×75,卷积核数量为24个,然后BN,然后激活。

2025-03-15 15:04:03 835

原创 sbCNN学习用于ssvep

第一个conv用于子带合并 所以卷积核在通道×时间 上是1×1,实际上是1×1×3,3 即每个子带一个权重吗,相当于一个卷积核。第三个conv用于提取时间特征 所以卷积核在通道×时间 上是1×2,步长为2,不是same,不是常见的,卷积核数量为120,所以输出形状为 1(通道)×25(T)×120(卷积核数量)第二个conv用于通道合并 所以卷积核在通道×时间 上是9×1,实际上也是9×1×1,卷积核数量为120,所以输出形状是1(通道)×50(T)×120(不是子带了,为卷积核的数量)

2025-03-14 21:43:01 303

原创 操作系统第三章内存(一)

内存保护,覆盖技术,交换技术

2023-02-05 14:33:27 141

原创 操作系统第二章(九)死锁

死锁

2023-02-03 16:20:43 143

原创 操作系统第二章(七)信号量实现进程互斥、进程同步、前驱关系

信号量来实现进程同步、进程互斥和前驱关系

2023-02-03 14:41:17 261

原创 操作系统第二章(七)信号量

信号量

2023-02-02 17:05:43 184

原创 操作系统第二章(六)进程同步和进程互斥

进程同步和进程互斥,以及进程互斥的软件方法

2023-02-02 16:00:26 119

原创 操作系统第二章(五)处理机调度

处理机调度,进程调度

2023-02-02 11:50:57 144

原创 操作系统第二章(四)线程概念和多线程模型

线程是怎么产生的,和进程的关系以及多线程模型是什么样的

2023-02-02 11:22:55 330

原创 操作系统第二章(三)进程控制和进程通信

操作系统第二章 进程控制和进程通信

2023-02-01 16:37:42 236

原创 操作系统第二章(二)进程的状态和转换

操作系统第二章 进程的状态和转换

2023-02-01 15:39:34 213

原创 操作系统第二章(一)进程的定义、组织和特征

操作系统第二章 进程的定义、组织和特征

2023-02-01 15:08:20 107

原创 操作系统第一章(五) 系统调用

操作系统第一章,系统调用

2023-02-01 14:25:40 272

原创 操作系统第一章(四)中断、异常和系统调用

操作系统的中断,和异常

2023-01-31 18:29:24 274

原创 操作系统第一章(三)运行机制与体系结构

操作系统的运行机制和体系结构

2023-01-31 17:46:12 196

原创 操作系统第一章(二)发展与分类

操作系统的发展与分类

2023-01-31 17:02:35 144

原创 操作系统第一章(一)概念、功能和特征

操作系统第一章操作系统的定义功能和目标,以及操作系统的特征并发,共享,虚拟,异步

2023-01-31 16:24:15 193

原创 泰勒公式的初级理解

泰勒公式的来源

2023-01-30 21:44:16 98 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除