图像超分辨EnhanceNet- Single Image Super-Resolution Through Automated Texture Synthesis笔记

本文介绍了EnhanceNet在图像超分辨率中的应用,通过自动化纹理合成改进损失函数,以提高超分辨率的感知质量。相比于传统MSE损失,结合感知损失和纹理匹配损失能生成更自然的细节。实验表明,这种联合损失函数的方法在视觉效果上显著优于仅使用MSE或单一感知损失的情况。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

图像超分辨EnhanceNet: Single Image Super-Resolution Through Automated Texture Synthesis笔记


简介

  • 作者写这篇文章,主要是提出了损失函数的改进。传统的损失函数是MSE,虽然很好优化,但它是所有可能的纹路取平均的结果,因此看起来较为平滑,很不自然。因此,作者将提出一个不同的损失函数,联合对抗训练,来提高SISR的感知质量。

SISR

  • 文中列举了一个用不同损失函数超分辨的示意图:
    image_1bvjcfpjecpe1el21kgu1c1rmsm9.png-7.6kB
  • 在降采样得到LR时,HR的细节信息已经丢失了,如果用MSE作为损失函数,只会估计出所有可能的平均值。而单纯使用对抗损失虽然不是像素级的精确,但可以生成更加真实的细节。

模型

  • 作者使用的网络结构如下:
    image_1bvjclqmpbr01eo6l092u018sum.png-68.6kB
  • 关于升采样部分,最自然想到的是一开始就用双三次插值,但这样会增加网络的计算量。如果在后面用解卷积,又会引入环状效应,还额外需要正则项。最后作者选择使用引入环状效应更小的最近邻升采样。

损失函数

  • 除了MSE损失,作者还引入了其他损失函数。

Perceptual loss in feature space

  • 这个损失的计算是把IestIHR
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值