
论文笔记
文章平均质量分 95
小殊小殊
为人在世 幸遇升平 自当立一番好言 行一番好事业
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
【大模型】通俗解读变分自编码器VAE
大模型已经有了突破性的进展,图文的生成质量都越来越高,可控性也越来越强。很多阅读大模型源码的小伙伴会发现,大部分大模型,尤其是CV模型都会用到一个子模型:变分自编码器(VAE),这篇文章就以图像生成为例介绍一下VAE,并且解释它问什么天生适用于图像生成。配合代码尽量做到通俗易懂。原创 2024-09-29 08:56:03 · 5717 阅读 · 21 评论 -
【论文笔记】独属于CV的注意力机制CBAM-Convolutional Block Attention Module
CBAM(Convolutional Block Attention Module)是2018年被提出的,不同于ViT的Attention,CBAM是为CNN量身定做的Attention模块,实现简单、效果好,你值得拥有。原创 2024-08-28 09:31:35 · 8012 阅读 · 19 评论 -
【论文笔记】图像修复MPRNet:Multi-Stage Progressive Image Restoration 含代码解析
恢复图像任务,需要在空间细节和高级上下文特征之间取得复杂的平衡。于是作者设计了一个多阶段的模型,模型首先使用编解码器架构来学习上下文的特征,然后将它们与保留局部信息的高分辨率分支结合起来。原创 2023-07-18 07:48:45 · 14916 阅读 · 29 评论 -
万字长文解读图像超分辨率 Real-ESRGAN 论文笔记+代码阅读
深度学习超分模型有几个里程碑:SRCNN > SRGAN > ESRGAN > Real-ESRGAN,SRCNN 和SRGAN 有些古老了,现在基本用不上,Real-ESRGAN是在ESRGAN的基础上做的升级,于是我们主要介绍Real-ESRGAN,用ESRGAN作为补充。原创 2023-07-10 07:00:00 · 29879 阅读 · 13 评论 -
【论文笔记】图像修复Learning Joint Spatial-Temporal Transformations for Video Inpainting
本文提出时空转换网络STTN(Spatial-Temporal Transformer Network)。具体来说,是通过自注意机制同时填补所有输入帧中的缺失区域,并提出通过时空对抗性损失来优化STTN。为了展示该模型的优越性,我们使用标准的静止掩模和更真实的运动物体掩模进行了定量和定性的评价。原创 2023-02-17 12:57:21 · 12793 阅读 · 15 评论