- 博客(24)
- 收藏
- 关注
原创 使用structural_similarity计算两幅图像之间的SSIM指标时窗口大小报错。
使用structural_similarity计算两幅图像之间的SSIM指标时窗口大小报错。
2024-03-03 20:52:34
2986
原创 Axial Attention 轴向注意力,包括RowAttention 和 column Attention
中提出了一种基于Transformer自注意力机制的Axial Attention。Axial Attention轴向注意力将二维输入分解为其轴向的组件,例如行和列,然后在每一个组件中,独立地为每个轴应用注意力,比如在每一行上面执行自注意力机制然后再再每一列上执行自注意力机制。感受野是目标像素的同一行(或者同一列) 的W(或H)个像素, 只有将Row-Attention和Column-Attention组合使用, 才能实现全局注意力。
2024-02-19 23:45:00
1338
2
原创 自注意力机制中的掩码Mask的生成
在自注意力机制中,掩码是一种用来控制模型在处理序列数据时忽略无效部分的技术。具体来说,掩码是一个与输入序列的长度相同的、由0和1组成的矩阵。其中,0表示对应位置是无效的,1表示对应位置是有效的。在自注意力机制中,掩码被用来屏蔽(即将其值置为一个很小的负无穷)无效的位置。这样,在进行自注意力计算时,无效位置的权重就会变得非常小(接近于0),从而将其对最终结果的影响降到最小。掩码的作用是确保模型不会关注到输入序列中的填充部分(即长度不足的部分),这在处理变长序列时非常重要。
2024-02-05 23:36:07
3244
1
原创 Transformer架构中基于窗口的的自注意力机制W-MSA和滑动窗口自注意力机制SW-MSA的实现
基于滑动窗口的Transformer架构中的自注意力机制的实现
2024-02-05 22:56:06
6716
3
原创 Q,K,V的生成
通过上述步骤,我们生成了经过线性映射的查询Q、键K和值V,然后可以用它们来计算自注意力权重并应用于输入张量。- 对于Q和K,通常会将它们的形状调整为(B, N, d_k),其中B是批次大小,N是序列长度,d_k是每个查询/键的维度。- 对于V,通常会将其形状调整为(B, N, d_v),其中B是批次大小,N是序列长度,d_v是每个值的维度。2. 接下来,对Q、K、V进行形状调整,使其适应自注意力机制的计算。1. 首先,通过对输入张量进行线性映射,生成三个张量Q、K和V。下面是不同方式的Q,K,V的生成。
2024-02-05 22:43:39
849
1
原创 使用ResNet18作为判别器以及利用torchvision.models库中的其他模型,如:AlexNet、VGG、SqueezeNet、DenseNet。
使用ResNet18作为判别器以及利用torchvision.models库中的其他模型,如:AlexNet、VGG、SqueezeNet、DenseNet。
2024-02-03 11:33:09
1279
1
原创 inception结构图以及代码实现
Inception Module基本组成结构有四个成分。1*1卷积,3*3卷积,5*5卷积,3*3最大池化。最后对四个成分运算结果进行通道上组合。这就是Inception Module的核心思想。Inception Module是GoogLeNet的核心组成单元。
2024-01-20 22:42:11
1045
原创 遍历指定目录及其子目录下的所有图片文件,并将它们的路径保存在一个列表中返回
遍历指定目录及其子目录下的所有图片文件,并将它们的路径保存在一个列表中返回
2024-01-20 20:28:40
570
原创 图像的阻挡效应因子(Blocking Effect Factor,BEF)和PSNR-B指标原理及实现
图像的阻挡效应因子(Blocking Effect Factor,BEF)原理及实现
2024-01-15 23:45:00
811
1
原创 ubuntu安装和配置hadoop,java环境及项目运行
hdfs dfs -put file_1.txt /user/hadoop/Hadoop/WordNum/input(hdfs中创建的保存数据的目录),这一步将虚拟机中的数据文件上传到HDFS保存数据的目录中。/home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到。/home/wqq112692/software/hadoop-3.3.1/etc/hadoop找到。删除文件夹命令:hdfs dfs -rm -r /user/hadoop/mydir。
2023-11-23 18:44:53
204
原创 Conda 配置pytorch环境
进入conda的anaconda prompt环境---->activate pytorch进入pytorch环境-------->命令行输入conda install -n pytorch ipykernel-------->再次输入:python -m ipykernel install --name pytorch(pytorch环境名称)参考博文:https://blog.youkuaiyun.com/feng_yue77/article/details/117335306。
2023-11-03 23:43:25
244
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人