- 博客(4)
- 收藏
- 关注
原创 实验:ViT & Swin Transformer
计算注意力矩阵 A=QKTA = QK^TA=QKT 的复杂度为 O((HW)2)O((HW)^2)O((HW)2),对高分辨率图像来说过于昂贵;为后续很多视觉 Transformer(如 Focal Transformer, CSWin, DAT 等)提供了。复杂度降低为 O(C2)O(C^2)O(C2),与空间分辨率无关 → 可处理高分辨率图像。Transformer 若直接处理像素级输入,需要庞大的 patch 数量和算力。减少了后续自注意力计算的 O(N2)O(N^2)O(N2) 复杂度。
2025-11-09 09:38:06
582
原创 实验:MobileNet & ShuffleNet
网络的前半部分由三层3D卷积组成,分别使用不同的卷积核大小,提取高光谱图像的空 间和光谱特征。3D卷积的输出被展平后,送入2D卷积层,进一步提取图像的空间特征。最后通过两个全连接层和Dropout层进行分类,输出最终的16个类别。# 3D卷积层部分# 2D卷积层部分# 全连接层# Dropout层# 3D卷积层x = F.relu(self.conv3d_1(x)) # 输入尺寸为 (1, 30, 25, 25)
2025-10-31 23:33:19
405
原创 实验:卷积神经网络
(1)定义全连接网络和卷积神经网络FC2Layer(全连接网络):所有层都完全连接,适合处理展平后的输入,无法捕捉图像中的空间信息。对于图像数据,通常不如卷积神经网络有效。CNN(卷积神经网络):通过卷积层提取局部特征,适合处理图像数据。卷积操作可以保留输入数据的空间结构(如边缘、形状等),更适合图像分类任务。# nn.Module子类的函数必须在构造函数中执行父类的构造函数# 下式等价于nn.Module.__init__(self)
2025-10-24 00:42:10
648
空空如也
关于#proteus#的问题:proteus仿真实验如何制作心形灯
2023-05-21
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1