- 博客(33)
- 收藏
- 关注
原创 图像融合+语义
1.引入语义信息:考虑到的需求,将引入融合网络中。2.联合训练:利用分割网络[52]产生的通过反向传播指导融合网络的训练,迫使融合图像包含更多语义信息。m 表示第 m 次迭代。随着训练的进行,β逐渐增大,这是因为随着迭代次数的增加,分割网络更好地拟合融合模型,并且语义损失可以更准确地指导融合网络训练。3.设计梯度残差密集块(GRDB):为了满足高级视觉任务的需求,开发了一种基于梯度残差密集块(GRDB)的轻量级网络。设计了(GRDB)来增强融合网络对细粒度空间的描述能力。
2025-02-26 15:25:41
1006
原创 【论文阅读】LENFusion: A Joint Low-Light Enhancement and Fusion Network for Nighttime Infrared and
1.夜间图像融合受到能见度有限的限制,容易受到光谱污染。当图像场景曝光不均匀或整体照度较低时,融合结果很容易出现类似于图1(c)的结果。红外信息减弱,红框内的可见信息在黑暗中被遮挡。因此,需要增强夜间图像融合的可视性,以便在昏暗环境下进一步提取场景信息,使融合结果包含更多信息。常见的融合方法依赖于低光增强预处理来提取更多可见特征。然而,这种方法很难专门针对融合提供增强功能。如图1(d)所示,在清晰度、对比度和细节方面还有改进的空间。我们提出了一个框架 LENFusion,用于循环反馈联合增强和融合。
2024-10-02 11:38:40
1234
1
原创 【论文阅读】Probing Synergistic High-Order Interaction in Infrared and Visible Image Fusion
现有方法只捕获二阶空间交互,忽略了空间和通道维度的高阶交互。这种限制阻碍了多模式之间协同作用的利用。
2024-10-02 11:36:39
1624
1
原创 【论文阅读】MRFS: Mutually Reinforcing Image Fusion and Segmentation(CVPR2024)
1.特征中和缺点和低光信息丢失。红外和可见光图像通常在强度和梯度分布方面表现出显着差异。在这种情况下,传统的固定比例的无监督损失可能会削弱有价值的特征,例如对比度,如图 2 所示。一个潜在的解决方案是在优化过程中动态优先考虑源图像中的优质特征,确保保留显着的对比度和纹理。此外,在照明条件不佳的情况下,低强度的可见图像往往会掩盖有价值的细节。在融合过程中,这些细节常常被忽视和丢弃,导致关键信息的丢失,如图2所示。从低强度区域中挖掘出更多细节将有效提高融合图像的整体质量。2.特征有效性得分不匹配。
2024-10-02 11:36:35
2146
4
原创 【论文阅读】Equivariant Multi-Modality Image Fusion(CVPR2024)
由于现实中没有一种传感器可以同时捕捉所有模态的信息,因此缺乏真实的融合图像作为训练的参照标准,这对深度学习模型的训练带来了挑战。基于生成对抗网络或去噪扩散模型的方法虽然能尝试让源图像和融合图像保持相似的分布,但这些方法缺乏可解释性和可控性,并且在训练过程中遇到困难。使用人工设计的损失函数(如最小化L1或L2距离)来使融合图像与源图像尽可能接近,但这忽视了融合图像和源图像之间的潜在差异,以及融合图像可能不在与源图像相同的特征空间这一事实。
2024-10-02 11:33:46
1205
3
原创 【论文阅读】Text-IF: Leveraging Semantic Text Guidance for Degradation-Aware and Interactive Image Fusion
受环境条件限制,原始采集的红外和可见光图像可能会出现劣化,融合图像质量较低。可见光图像容易受到退化问题的影响,例如低光、过度曝光等。红外图像不可避免地受到噪声(包括热噪声、电子噪声和环境噪声)、对比度降低和其他相关影响的影响。当前的融合方法缺乏自适应解决退化问题的能力,导致融合图像质量低下。依靠手动预处理来增强图像存在灵活性和效率问题。
2024-10-02 11:33:05
1254
1
原创 【论文阅读】A Task-guided, Implicitly-searched and Metainitialized Deep Model for Image Fusion
(i)大多数都专注于提升融合图像的视觉效果,而不是考虑下游视觉任务,这给场景理解应用带来了障碍。(ii)当前的融合方法设计了增加深度或宽度的手工架构,这依赖于冗长的专用调整;因此,它们不可避免地导致耗时的结构工程。(iii)这些方法是通过特定的训练数据来学习的,无法获得各种融合场景的泛化能力。
2024-10-02 11:32:03
1142
1
原创 【论文阅读】MetaFusion: Infrared and Visible Image Fusion via Meta-Feature Embedding from Object Detection
Separate Optimization忽略了对象检测对图像融合的正面影响,因为它孤立地训练每个任务,缺乏任务间的互动与互补。Cascaded Optimization虽然尝试结合两者,但因直接用高级的对象检测约束低级的图像融合,导致特征不匹配,影响了优化效果。这两种方法都未能充分利用两个任务之间的相互促进潜力。
2024-10-02 11:28:57
1271
1
原创 【论文阅读】Multi-modal Gated Mixture of Local-to-Global Experts for Dynamic Image Fusion(ICCV2023)
现有方法通常直接结合不同模态的纹理细节和目标对比度,忽略了现实中的动态变化,导致在良好光照条件下可见光纹理可见度降低,以及在低光照条件下红外对比度降低。
2024-10-02 11:26:59
536
1
原创 【论文阅读】SDCFusion:A semantic-driven coupled network for infrared and visible image fusion
1.传统方法需要手工设计融合规则;时间消耗较高。2.现有的图像融合方法只关注像素级融合,忽略了场景中的高级语义信息。
2024-06-10 10:39:56
1130
1
原创 【论文阅读】CrossFuse: A novel cross attention mechanism based infrared and visible image fusion approach
红外和可见光图像之间的相似性差异大,使得从这两种模态中提取互补信息变得困难。多阶段融合方法在处理图像时可能会导致信息丢失,并且通常计算成本较高。设计有效的端到端融合模型面临挑战,需要精心设计的损失函数来优化性能。现有基于Transformer的方法过于侧重于自注意力机制而没有充分探索交叉注意力机制,忽视了增强互补信息的重要性。
2024-06-10 10:35:16
668
1
原创 【论文阅读】Vision Mamba: Efficient Visual Representation Learning with Bidirectional State Space Model
状态空间模型(SSMs)在长序列建模方面展现出了巨大潜力,如Mamba。然而,将SSMs应用于视觉数据表示存在挑战,因为视觉数据对位置敏感,且需要全局上下文以理解视觉信息。
2024-06-10 10:33:50
722
2
原创 【论文阅读】MambaDFuse: A Mamba-based Dual-phase Model for Multi-modality Image Fusion
基于卷积神经网络(CNN)的方法由于其有限的感受野,难以捕获全局上下文,这使得生成高质量的融合图像变得具有挑战性。基于自编码器(AE)的特征提取或图像重建在设计能够捕获模态特定和共享特征的编码器时面临挑战。基于生成模型的方法,如生成对抗网络(GANs)和扩散模型,虽然能够生成高质量的融合图像,但在完成融合任务时可能不够高效。GANs的训练不稳定、缺乏可解释性以及模式崩溃是影响其生成能力的关键问题。
2024-06-10 10:32:17
1771
3
原创 【论文阅读】TarDAL:Target-aware Dual Adversarial Learning and a Multi-scenario Multi-Modality Benchmark
通过计算像素的显著性值来计算权重 ω1 和 ω2,公式 (5) 中的 Lpixel 表示像素损失,其中包括了融合图像与源图像的像素间的绝对差值。最后,该策略不仅可以生成视觉上吸引人的图像,而且可以在给定训练的网络参数的情况下输出准确的检测,使我们能够找到面向检测的融合的最佳解决方案,并且比独立训练方案更有效地收敛。ω1 和 ω2 是用于计算每个源图像对融合图像贡献的权重,通过调整这两个权重,可以更好地平衡生成的融合图像与源图像之间的像素强度分布。3.数据收集有限,难以学习到两种模态的互补信息并验证有效性。
2024-06-10 10:30:27
1384
1
原创 【论文阅读】SegMiF:Multi-interactive Feature Learning and a Full-time Multi-modality Benchmark for Image
为了生成具有视觉吸引力的融合图像以及准确的场景分割结果,我们将这两个任务联合制定为一个目标:g(·)是联合优化两个任务的约束项。在本文中,我们将g(·)视为特征学习约束方式,并通过设计分层注意力机制和交互式训练方案来实现这一目标。
2024-06-10 10:25:06
2122
1
原创 【论文阅读】PSFusion:Rethinking the necessity of image fusion in high-level vision tasks
场景恢复分支旨在重建红外图像̂Iir和可见光图像̂Ivi,以及合成融合图像If;稀疏语义感知分支负责预测边界分割结果Ibd、语义分割结果Ise和二值分割结果Ibi。为了在语义感知分支和场景恢复分支之间轻松注入语义特征,我们期望共享这两个分支之间的特征提取网络。然而,场景恢复分支需要保持高分辨率特征以保留细节,而高级视觉任务需要降采样来提取足够的语义特征并捕捉整体结构。这两个要求之间的矛盾阻碍了我们使用现有的骨干作为特征提取网络。
2024-06-10 10:20:52
1944
1
原创 【论文阅读】SeAFusion:Image fusion in the loop of high-level vision tasks: A semantic-aware real-time
源图像经过融合网络生成融合图像,而融合网络图像在经过一个分割网络得到分割结果。分割结果与labels构造语义损失,融合图像与源图像之间构造内容损失,其中语义损失只用于约束分割网络,而内容损失与语义损失共同约束融合网络的优化。这样语义损失能够将高级视觉任务(分割)所需的语义信息反传回融合网络从而促使融合网络能够有效地保留源图像中的语义信息。
2024-06-10 10:18:07
1710
1
原创 【论文阅读】Unsupervised Misaligned Infrared and Visible Image Fusion via Cross-Modality Image Generation
不同的成像流程和传感器内的热传导导致观察到的红外和可见图像之间出现偏移和变形的不对齐。通过观察发现,直接融合不对齐的红外和可见图像往往会出现严重的幽灵伪影。受 [Wang et al., 2019a;Wang et al., 2019b] 的启发,通过图像到图像翻译来减少跨模态变化,并考虑到红外图像“强调结构胜过纹理”的固有特性,我们提出了一个专门的跨模态生成-配准范式,以减少空间偏移并在不对齐的红外和可见图像融合过程中缓解幽灵问题。
2024-03-01 13:26:02
2504
1
原创 【论文阅读】SuperFusion: A Versatile Image Registration and Fusion Network with Semantic Awareness
在本文中,提出了一个考虑图像配准、图像融合和高级视觉任务要求的多功能框架,称为 SuperFusion。它显着扩展了实际应用中图像融合的范围。SuperFusion 由三个组件组成,包括图像配准、融合和语义分割网络。首先,设计配准网络来估计双向变形场,以便可以更简单地使用光度损失和端点损失来提高精度。此外,还开发了一种对称联合配准和融合方案,以平衡输入模态的偏差,并进一步促进融合域中具有相似性约束的配准。
2024-02-29 15:36:57
3035
11
原创 【论文阅读】FusionGAN: A generative adversarial network for infrared and visible image fusion
论文链接:FusionGAN: A generative adversarial network for infrared and visible image fusion - ScienceDirect代码: GitHub - jiayi-ma/FusionGAN: FusionGAN: A generative adversarial network for infrared and visible image fusion研究背景:1. 图像融合是一种增强技术,旨在将不同类型传感器获取的图像结合起来,
2024-02-23 22:55:11
1705
1
原创 【论文阅读】U2Fusion: A Unified Unsupervised Image Fusion Network
这些重要的参数被赋予更高的权重,以防止忘记从旧任务中学到的东西,而不太重要的参数可以更大程度地修改,以从新任务中学习。然而,随着任务数量的增加,两个紧迫的问题变得难以解决:i)始终保留先前任务的数据所带来的存储问题和ii)使用所有数据进行训练所带来的计算问题,无论是计算难度和时间成本。4.值得注意的是,有一些方法脱离了框架,例如基于梯度转移和总变差最小化的可见光-红外图像融合方法[19]、通过优化结构相似性指数的多曝光图像融合方法[20] ,以及基于密集SIFT进行多焦点图像融合的方法[21]等。
2024-02-23 22:50:49
1333
1
原创 【CVPR2023】CDDFuse:Correlation-Driven Dual-Branch FeatureDecomposition for Multi-Modality ImageFusion
这个损失项的动机是,根据我们的 MMIF 假设,分解后的特征 {ΦB I , ΦB V } 将包含更多模态共享信息,例如背景和大规模环境,因此它们通常是高度相关的。通过扁平化前馈网络的结构,扁平化了 Transformer 块的瓶颈,LT 块缩小了嵌入,以减少参数数量,同时保持相同的性能,满足我们的期望。显然,我们的方法更好地整合了红外图像中的热辐射信息和可见图像中的详细纹理。例如,在图1a中,(I)和(II)中的共享编码器无法区分模态特定的特征,而(III)中的私有编码器忽略模态共享的特征。
2024-02-03 22:37:54
2036
1
原创 【CVPR2023】Adaptive Spot-Guided Transformer for Consistent Local Feature Matching
然而,以往的方法在细阶段选择固定大小的网格进行匹配。然而,当图像之间的尺度变化太大时,正确的匹配点可能超出网格的范围,导致匹配失败。然而,一些最近的研究出,Transformer在连续密集预测任务中缺乏空间上的归纳偏差,可能导致局部匹配结果的不一致。该模块的主要目的是通过引导注意力机制来实现对地标点周围区域的聚合,以便提高匹配的准确性和鲁棒性,从而更好地实现图像间的匹配。本研究的创新之处在于引入了点引导聚合模块,以维持局部一致性并避免干扰因素的影响,以及自适应缩放模块,有效处理局部特征匹配中的尺度变化。
2024-02-03 22:28:05
2587
1
原创 【ACCV2022】MatchFormer: Interleaving Attention in Transformers for Feature Matching
主要工作:本文的主要工作是提出了一种新的层级提取和匹配变换器,称为MatchFormer,用于局部特征匹配任务。背景:局部特征匹配是一个在亚像素级别上计算密集的任务。传统的基于检测器和特征描述符的方法在低纹理场景中表现不佳,而基于CNN的方法虽然具有序列化的提取-匹配流程,但未能充分利用编码器的匹配能力,同时容易过度负担解码器进行匹配。研究方法:提出了一种新的层级提取和匹配变换器,MatchFormer。
2024-02-03 22:22:34
1627
1
原创 【CVPR2021】LoFTR: Detector-Free Local Feature Matching with Transformers
论文链接:LoFTR: Detector-Free Local Feature Matching with Transformers | IEEE Conference Publication | IEEE Xplore代码:zju3dv/LoFTR: Code for "LoFTR: Detector-Free Local Feature Matching with Transformers", CVPR 2021, T-PAMI 2022 (github.com)We present a novel m
2024-02-03 22:16:49
1383
2
原创 【ICCV2023】LightGlue:Local Feature Matching at Light Speed
介绍了一种用于特征匹配的深度神经网络LightGlue。在SuperGlue成功的基础上,将注意力机制的力量与关于匹配问题的见解以及Transformer最近的创新相结合,赋予这个模型反思其自身预测可信度的能力,使计算量适应每个图像对的难度。LightGlue比之前表现最好的SuperGlue更快、更准确、更容易训练!
2024-02-03 22:14:35
1478
1
原创 【CVPR2020】SuperGlue:Learning Feature Matching with Graph Neural Networks
这篇文章介绍了一种通过同时寻找描述子和拒绝不匹配的特征点来匹配两种局部特征的神经网络。通过求解可微的最优传输问题来估算分配,该问题的代价通过图神经网络来预测。我们介绍了一种灵活的基于注意力机制的上下文聚合机制,使得superglue可以同时推理出底层的3D场景和特征分配。与传统的手工设计的方法相比,我们的技术通过端到端的训练从图片对中学习几何变换和3D世界的规则的先验知识。superglue比其他学习方法表现得更好并且在具有挑战的现实世界的室内和室外环境的姿态估计任务中取得了最好的结果。
2024-02-03 22:05:59
1219
1
原创 【ICCV2021】COTR: Correspondence Transformer for Matching Across Images
主要工作:该论文提出了一种基于深度神经网络的图像对应框架,可以在给定两幅图像和一幅图像中的查询点的情况下,在另一幅图像中找到其对应点。该方法可以选择只查询感兴趣的点并检索稀疏对应关系,或者查询图像中的所有点并获得密集映射。在推理阶段,通过逐步缩小区域的方式,应用对应网络,形成一种多尺度管线,能够提供高度精确的对应关系。背景:在计算机视觉领域,寻找图像间的对应关系是一个重要且具有挑战性的问题,涉及到多种应用,包括立体视觉和光流估计。
2024-02-03 21:53:09
1161
1
原创 【论文精读】D2-Net:A Trainable CNN for Joint Description and Detection of Local Features
但是,情况并非那么简单,因为描述符内的不是所有变量都是"鉴别性"的:两个关键点可能具有小的距离测量,因为它们的描述符内的大多数变量具有相似的值,但是那些变量可能对实际的匹配无关。放弃特征点检测而直接在整张图片上进行稠密的描述子提取“[10, 15, 48, 52].” 这种方法比稀疏特征点匹配“[45, 58, 69],” 显现出更好的匹配结果。传统稀疏特征提取的方法基本上都是先进行特征提取“[7, 19, 29, 31, 33]” ,然后提取描述子“[7, 9, 24, 29, 44]”。
2023-11-21 19:43:45
665
原创 【论文精读】SuperPoint:Self-Supervised Interest Point Detection and Description
研究背景:1.提取特征点是许多视觉任务的第一步,例如SLAM、SfM、相机校准以及图像匹配等。2.卷积神经网络在图像作为输入的任务上表现优越。3.训练基于强监督的卷积神经网络来检测特征点很难。研究方法:1.提出了一种自监督方法,通过特征点检测器它自己来监督,创造一个真实图片的特征点的伪基准标准(ground truth)的数据集。
2023-11-17 16:45:30
348
1
原创 解决 OpenAI‘s API is not available in your country.
首先你要确认自己连的节点不属于以下任何一个国家。如果你确定你连的节点不属于上图的任何一个国家还是显示not available,那么有两种情况。一.你的科学上网工具的设置。例如我用的是ssr,我打开了服务器负载均衡,它就会自动的在我所有的节点里选择最好的节点进行连接,我以为自己连的是美国的节点,其实它可能已经给我换到了香港、俄罗斯的节点。关闭负载均衡后,连接任意一个非上图国家的节点就OK了。二..你之前用浏览器进入该网站或者其他网站的时候IP地址属于以上几个国家。这时我们可以进入浏览器的设
2022-12-16 13:53:48
49674
2
原创 解决 OpenAI‘s API is not available in your country.
首先,你要保证自己的节点连的不是以下几个地区的。其次,要注意自己的科学上网工具有些设置可能会导致它自动切换节点。例如我用的是ssr,因为开了服务器负载均衡,它会自动寻找更好的节点连接。我以为我连的是美国的节点,其实它已经自动给我切换成上图那几个国家的节点了,导致我注册的时候总是显示not available。最后,如果节点连接的不是以上几个国家并且关闭了服务器负载均衡之类的设置还是不行,可以在浏览器设置里清理一下浏览器的缓存、cookie之类的,开启无痕模式登入。花了几个小时,踩了无数的坑
2022-12-16 13:38:54
6491
1
原创 python oj
计算标准差题目描述Pile 想知道好多个数字的标准差。输入输入多行,每行表示一个整数输出输出标准差,输出格式可以参考样例。输出的标准差要求利用科学计数法表示,且只能输出 2 位数,例如 1.2e+09。ls=[]while 1: try: x=eval(input()) ls.append(x) except: breaks=0;s1=0for i in range(len(ls)): s+
2021-12-11 14:29:38
1180
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人