- 博客(19)
- 收藏
- 关注
原创 Tensorboard连接远程服务器可视化----针对Autodl服务器,巨简单
点击自定义服务,弹出以下界面:运行Windows+R,输入cmd,然后在命令行按照上面的提示操作就可。接着打开浏览器:输入http://localhost:6006,成功显示。
2024-04-25 10:26:53
653
3
原创 已经下载了pytorch,但在正确使用一段时间后出现No module named torch的错误
使用的是叫做m2release的虚拟环境,在此环境下使用conda list可以发现是存在pytorch的,但是运行代码时却报No module named torch的错误。
2024-04-15 20:45:04
445
1
原创 Image Captioning: Transforming Objects into Words论文阅读笔记
虽然基于目标检测的编码器代表了最先进的技术,但是目前它们没有利用有关检测到的对象之间的空间关系的信息,例如相对位置和大小。然而,这些信息通畅对于理解图像中的内容直观重要,并且被人类在推理物理世界时使用。例如:相对位置可以帮助区分“骑着马的女孩”和“站在马旁边的女孩”。同样,相对大小可以帮助区分“弹吉他的女人”和“弹尤克里里的女人”。正如以下文献所示,结合空间关系已被证明可以提高对象检测本身的性能。
2024-04-09 11:16:23
853
1
原创 Meshed-Memory Transformer for Image captioning代码复现---(连接服务器)手把手一步一步实现自用
3.但是这样还是不能解决这个问题,我的路径好像赋值不够准确(sorry)再进行查看,发现train.py的161行对detections_path用args.features_path进行了赋值,所以要继续查看这个args.features_path,我尝试打印args.features_path的值,果然打印出来是None。(下载真的慢的要死)我忽略了一点,我要用m2release这个虚拟环境的话,需要在终端(terminal)进入服务器映射文件,激活m2release,然后再用。
2024-04-08 10:46:17
1549
4
原创 Bottom-Up and Top-Down Attention for Image Captioning and Visual Question Answering论文阅读笔记
自上而下的注意力机制已广泛应用于图像描述和视觉问答(VOA)中,以通过细粒度分析(fine-grained analysis)甚至多个推理步骤实现更深入的图像理解。在这项工作中,本文作者提出一种自上而下和自下而上相结合的注意力机制,可以在对象和其他显著图像区域的级别上计算注意力。这是考虑注意力的自然基础。在我们的方法中,自下而上的机制(基于Faster R-CNN)提出图像区域,每个区域都有一个关联的特征向量,而自上而下的机制确定特征权重。
2024-04-02 22:45:57
959
1
原创 A Position-Aware Transformer for Image Captioning--------论文阅读笔记
近些年来,编码器-解码器模型已成为主流方法,其中CNN和LSTM用于对图像内容进行自然语言描述。在这些方法中,视觉注意力被广泛使用,通过fine-grained analysis(细粒度分析)甚至多步骤推理来实现更深入的图像理解。然而,大多数传统的视觉注意力机制都是基于高层图像特征,忽略了其他图像特征的影响,并且没有充分考虑图像特征之间的相对位置。在本文中,作者针对上述问题,提出了一种具有图像特征注意力和位置注意力机制的Positive-Aware Transformer模型。
2024-04-01 16:54:26
822
1
原创 Pycharm远程连接阿里云服务器方法------自用
点击File,点击settings,接着选择Python Interpreter,点击Add Interpreter,选择On SHH接下来就要填写SSH的主机,端口号,用户名。从阿里云服务器官网复制自己购买的服务器的公网IP地址,这样就得到了主机。用户名通常是root,但是我在后面重置密码的时候发现我的密码是administrator,端口号用默认的就行,然后点击Next。接着需要填写密码,但是因为我不记得创建这个云服务器时的密码了,所以我去重置了一下密码。
2024-03-28 14:43:21
3271
1
原创 Meshed-Memory Transformer for Image captioning论文阅读笔记------自用
基于Transformer的架构代表了机器翻译和语言理解等序列建模任务的最新技术。但是,他们在图像描述等多模态环境中的适用性仍很大程度上尚未得到充分探索。为了填补这一空白,本文提出了M2M^2M2该架构改进了图像编码和语言生成步骤:它学习了图像区域之间关系的多层表示,集成了所学的先验知识,并在解码阶段使用网格状连接来利用低级和高级特征。通过实验,本文作者将M2M^2M2Transformer和不同fully-attentive models与循环模型进行性能比较。
2024-03-27 17:48:24
1378
1
原创 SCA-CNN: Spatial and Channel-wise Attention in Convolutional Networks for Image Captioning论文阅读笔记
SCA-CNN
2024-03-20 11:49:13
1070
1
原创 Show,Attend and tell代码复现---pytorch方法手把手一步一步实现
复现Show,Attend and tell代码
2024-03-11 16:33:03
1830
5
原创 Knowing When to Look: Adaptive Attention via A Visual Sentinel for Image Captioning论文阅读笔记
像上一篇show,attend and tell论文中,要求预测生成a,of这些不能与图像中的视觉信息相对应的虚词,量词时,仍然要关注一块区域与这些词对应起来。这种情况其实是没有必要的。本文解决的就是这种问题。在这篇文章中,提出了一种新颖的带有视觉哨兵(visual sentinel)的自适应注意力模型( adaptive attention model)。在每个时间步骤,模型决定是否关注图像(如果关注,关注哪些区域)或视觉哨兵。
2024-03-08 17:35:28
1058
1
原创 在终端使用npm run dev时,Vscode报错‘vite‘ 不是内部或外部命令,也不是可运行的程序 或批处理文件。
*解决方法:**在Vscode终端输入:npm install -g vite。下载成功后即可运行npm run dev命令。
2023-11-13 16:26:02
5794
原创 Defaulting to user installation because normal site-packages is not writeable错误解决方法
在下载opencv-python库时出现了Defaulting to user installation because normal site-packages is not writeable错误。
2023-11-02 22:10:10
6523
原创 Show, Attend and Tell: Neural Image Caption Generation with Visual Attention论文笔记
图像描述-加注意力机制
2023-10-25 22:57:03
867
1
原创 Deep Visual-Semantic Alignments for Generating Image Descriptions论文笔记
图像描述论文阅读笔记
2023-10-21 15:56:25
609
1
原创 Show and Tell: A Neural Image Caption Generator论文阅读笔记-----2015年发表
图像描述:Show and tell阅读笔记
2023-10-12 22:30:10
154
原创 不降级解决import tensorflow.contrib.layers as layers引起的错误ModuleNotFoundError: No module named ‘tenso
不降级解决import tensorflow.contrib.layers as layers引起的错误ModuleNotFoundError: No module named 'tensorflow.contrib'的方法
2023-10-07 20:58:06
765
1
原创 在Anaconda下创建虚拟环境安装Tensorflow的注意事项及过程
帮助大家实现在Anaconda下创建虚拟环境来安装tensorflow
2023-09-19 17:45:08
2146
空空如也
火狐浏览器显示密码圆点很大
2024-01-11
输入密码框默认圆点变为*
2024-01-11
TA创建的收藏夹 TA关注的收藏夹
TA关注的人