自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 Equivariant Multi-Modality Image Fusion论文分享

在计算机视觉中,等变性如果你对输入做了某种变换(如旋转、平移),那么输出也会发生同样的变换。用数学公式表示:f(T(x))=T(f(x)),其中x是输入图像。T:变换(比如把图旋转90度)。f:你的融合模型(U-Fuser)。假设你有一张红外图和一张可见光图。先把两张原图融合,得到结果图,然后把结果图旋转90度。先把两张原图都旋转90度,再送入模型融合,得到结果图。如果模型具有等变性,那么做法A和做法B得到的结果应该是完全一样的。

2025-12-25 16:27:36 520

原创 12.25进展

2.下午2.到4点,把最优化看了看,看了一个外部惩罚与单纯形函数,感觉对于最优化的复习还是有点没有头绪。1.上午写了一个边缘计算的大作业,还差格式还没调整,中午回来又把内容继续调整了一会。3.下午主要看看明天组会需要汇报的一些东西。4.将之前看的文献整理到优快云中进行发布。

2025-12-25 15:55:46 19

原创 Text-IF: Leveraging Semantic Text Guidance for Degradation-Aware and Interactive Image Fusion(12.24)

传统的图像融合可能不知道图像“为什么”质量差(是太暗了?还是太亮了?Text-IF 通过引入文本描述,告诉模型“现在的图太暗了,请在融合时修正这一点”,然后通过SIGM 模块在特征层面动态调整融合策略,最终生成高质量的融合图像。

2025-12-24 15:23:14 365

原创 2025.12.23

今天没读论文,主要是将之前的三个消融实验给做了,效果其实还好,相较于之前与SOTA的对比实验,效果还是变好了的。但是整理PPT这部分,我感觉这个对比实验定性分析不太好,感觉会在组会上挨批。明天还是要继续整理定量分析这部分,尽可能这星期开始论文写作。还有就是论文分享以及组会的准备也要开始了。

2025-12-23 16:12:43 60

原创 FATFusion: A functional–anatomical transformer for medical image fusion(12.22)

这两张图的设计体现了双向增强模块就像是...解决的问题AGTM(图 4)给近视眼(功能图)戴上眼镜(解剖图)解决 SPECT 图像“模糊、没边界”的问题。FGTM(图 3)给黑白地图(解剖图)画上重点(功能图)解决 MRI 图像“看不出哪里生病、没重点”的问题。损失函数的设计:针对“解剖-功能”融合任务的特殊性,设计了一套能够平衡“亮度维持”与“纹理保持”的约束机制。内容损失(Content Loss,Lcon​和结构相似度损失(Structural Similarity Loss,Lssim​。

2025-12-22 16:28:47 667

原创 12.20

1.对重新加入的两个SOTA重新进行CT-MRI、PET-MRI以及SPECT-MRI的融合结果进行分析,再尝试对SPECT-MRI进行重新调参,训练得到更好的一个结果(经过调整参数之后,结果还是不太好,但是还能说的过去吧)

2025-12-22 16:04:31 68

原创 FusionMamba:Dynamic Feature Enhancement for Multimodal Image Fusion with Mamba

而且,最重要的是,它的计算复杂度是 线性 O(N)的,而不像 Transformer 是平方级 (O(N2) 的。FusionMamba 的设计主要针对 “清晰的多模态输入”,当输入图像存在噪声(如红外图像的热噪声、医学图像的扫描噪声)、模糊或低分辨率时,模型缺乏专门的降噪 / 增强模块,融合结果易放大原始输入的缺陷,鲁棒性有待提升。所以该篇文章的研究设计了一种新的基于Mamba的动态特征融合模型用于多模态图像融合,旨在更好地探索模态内和模态间的特征,同时动态增强源图像的细节纹理信息和各模态的特异性信息。

2025-12-20 14:50:42 890

原创 12.19日进展

2.CT-MRI(MA_SSM+ColorLoss)这个实验还未进行测试(没必要进行,因为w_col = 0 # CT 没有颜色,不计算此项)w_grad = 5 # PET 噪点多,梯度权重降低,防止图像脏。完成SPECT-MRI测试的实验效果的汇总。对PET-MRI进行一定的。上午(9.-11.)

2025-12-19 21:21:13 143

原创 2025.12.16

今天主要是又找了两个SOTA的方法(SeAFusion、MambaFuse)进行了对医学图像融合(师兄给我的建议),从而得到了CT-MRI,PET-MRI上的融合,并且将融合结果进行了汇总,但是我感觉这两种SOTA比我的改进方法的效果要更好了。接着又对MA_SSM对SPECT-MRI进行了训练,是基于PET-MRI的MA_SSM的权重+ColorLoss,训练大概是需要一个小时左右。1.完成SPECT-MRI测试的实验效果的汇总及分析。2.对PET-MRI进行一定的调参,提升实验效果。

2025-12-18 21:22:59 136

原创 MMIF-INet: Multimodal medical image fusion by invertible network 论文分享

本文研究了发表在Information Fusion期刊上的一篇关于多模态医学图像融合(MMIF)的论文。该论文提出了一种由离散小波变换(DWT)、可逆块(IB)和多尺度融合模块(MSFM)组成的新型融合框架。其中,IB采用仿射耦合层结构实现特征提取过程中的信息无损性,而MSFM则负责最终融合。论文通过精心设计的损失函数优化融合效果,确保颜色、纹理等关键信息的平衡。研究者在阅读过程中深入分析了DWT的作用、IB的可逆机制以及MSFM的融合原理,并与自身研究的CT-MRI融合进行了对比。文章还探讨了论文中定性

2025-12-16 14:50:28 946

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除