自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Bellatriix的博客

记录自己在学习过程中的心得

原创 【Paper Thought】CVPR2025 超分论文心得分享:MaIR

总的来说,本文的核心价值在于,为Mamba这类强大的序列模型如何优雅地应用于视觉任务,提供了一个系统性的设计范式。通过NSS策略,MaIR在将图像从2D转换到1D的过程中,原生地嵌入了图像的局部性和连续性先验,而不是事后修补。这确保了输入Mamba引擎的序列是“结构良好”的。通过SSA机制,MaIR告别了简单粗暴的序列相加,转而采用一种通道级的、自适应的注意力来融合多方向信息。这让模型能自主决定在哪个特征上、更相信哪个扫描方向的结果。MaIR的成功证明了,我们不必在CNN的局部性。

2025-11-16 22:47:27 693

原创 【Paper Thought】CVPR2025 超分论文心得分享:PFT-SR

总体而言,PFT通过一种“代代相传,逐步聚焦”的注意力机制,巧妙地实现了效率与性能的双重提升。这种方法思想非常优雅,为设计高效的Transformer模型提供了新的思路。作者已将源码开源,感兴趣的同学强烈建议亲自去跑一跑。

2025-11-09 21:18:08 985

原创 【Paper Thought】CVPR2025 超分论文心得分享:CATANet

以上就是这篇文章的核心方法,代码复现操作目前还没做,不过作者已经将代码开源出来,大家也可以积极尝试。CATANet为我们提供了一个设计轻量级Transformer模型的优秀范例:“先聚类,后交互”。其核心在于利用动态分组和层次化注意力,巧妙地绕开了全局注意力计算量的瓶颈。全文思路清晰,创新点扎实。通过仅训练阶段更新聚类中心,将大部分聚类计算成本置于训练阶段,推理时直接使用学到的模式,非常高效。作为本系列的开篇,CATANet的设计哲学给了我很多启发。

2025-11-03 23:44:24 727

原创 Vue在Django中无法渲染数据的问题

第一次在Django中结合Vue就出现了数据渲染的问题,Vue通过ajax是可以正常拿到数据的但是就是无法渲染。查阅了一下午资料终于发现,Django在使用模板时,会解析{% %}便签中的代码作为Django的语法,而Vue渲染时需要使用 {{ }}就与之产生了冲突。解决方法:只需要在需要渲染Vue的前后,加上{% verbatim %} {% endverbatim %}即可。...

2020-09-29 17:34:40 878 1

原创 Github删除远程仓库的文件而不删除本地文件

在新clone的源码文件夹处bash,dir命令可以查看当前文件夹中的内容。以上代码作用为删除某个文件或文件夹,XXXX处为文件名称。删除成功后需要重新进行提交在删除成功后重新提交和push,即可更新远程仓库。

2020-07-06 10:53:55 1805

提示
确定要删除当前文章?
取消 删除