- 博客(5)
- 收藏
- 关注
原创 typora 写作用法
另外,如果你要跳转的锚点本身就是标题的话(例如 h2 跳转),Typora也是支持直接在跳转的起始位置引用链接的。主要实现点击后跳转到相应位置,用来引用、图片的跳转很好用。不使用left和right关键词。开4次根号下的x除以y。
2024-03-30 22:44:24
1462
翻译 Cascaded Local Implicit Transformer for Arbitrary-Scale Super-Resolution
隐式神经表示最近在表示任意分辨率的图像方面显示出了很有前途的能力。在本文中,我们提出了一种局部隐式变换器(LIT),它将注意力机制和频率编码技术集成到局部隐式图像函数中。我们设计了一个跨尺度的局部注意力块来有效地聚合局部特征,并设计了一种局部频率编码块来将位置编码与傅立叶域信息相结合,以构建高分辨率图像。为了进一步提高代表性,我们提出了一种级联LIT(CLIT),它利用多尺度特征,以及在训练过程中逐渐增加上采样尺度的累积训练策略。我们进行了广泛的实验来验证这些组成部分的有效性,并分析了各种训练策略。
2024-03-30 22:25:15
245
翻译 EfficientViT Memory Efficient Vision Transformer with Cascaded Group Attention
视觉Transformer因其高模型能力而取得了巨大成功。然而,其显著的性能伴随着沉重的计算成本,这使得它们不适用于实时应用。在本文中,我们提出了一系列名为EfficientViT的高速视觉Transformer模型。我们发现现有Transformer模型的速度通常受到内存效率低下操作的限制,特别是在多头自注意力机制(MHSA)中的张量重塑和逐元素函数。因此,我们设计了一种新的构建模块,采用了夹心布局。在高效的前馈神经网络(FFN)层之间使用单一的内存限制的MHSA,从而提高了内存效率并增强了通道通信。
2024-03-30 22:06:42
191
翻译 SwinIR Image Restoration Using Swin Transformer
SwinIR: Image Restoration Using Swin Transformer论文翻译
2023-09-23 11:00:46
187
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人