论文阅读笔记:SRGAN

本文探讨了超分辨率重建(SISR)问题,指出传统的深度学习方法虽然在PSNR和SSIM等指标上表现良好,但在视觉效果上往往不足。作者提出了一种名为SRGAN的基于生成对抗网络(GAN)的解决方案,该方案用VGG网络特征匹配的损失函数替代了MSE损失。SRGAN在主观评价MOS测试中表现出色,尽管在像素级指标上有所下降。网络结构包括ParametricReLU激活函数,并且训练策略包括了生成器和判别器的特定更新规则。实验结果显示,SRGAN在人眼感知上优于其他方法。
  • 论文:Photo-Realistic Single Image Super-Resolution Using a Generative Adversarial Network

  • 连接:https://arxiv.org/pdf/1609.04802.pdf

  • 代码:
    1.https://github.com/brade31919/SRGAN-tensorflow
    2.https://link.zhihu.com/target=https%3A//github.com/OUCMachineLearning/OUCML/blob/master/GAN/srgan_celebA/srgan.py

  • 背景:本文针对的是SISR问题。主要需要强调的是,超分算法的评估指标多为SSIM,PSNR,传统深度残差网络训练好后,结果指标通常很好,但细节纹理上与人眼感觉上通常效果欠佳,如下图,而生成类网络可以较好的解决这类问题{不过同样,也带来了像素级评价指标下降的问题,因此文章中使用了一种新指标}。
    在这里插入图片描述
    作者认为MSE损失函数类网络会让超分这一多解问题最后算出一个解空间的平均,而生成类网络则更倾向于一个特解,更plausible-looking。
    在这里插入图片描述

  • 文章主要贡献:
    1.针对MSE损失函数,训练了具有16块的deepResNet网络,超分倍数为(4×),以PSNR,SSIM为评估指标,获得了当前算法中最好的结果。
    2.提出基于GAN网络的SRGAN网络。同时把MSE loss替换为了一种基于VGG网络特征图上计算的loss。
    3.对来自三个公共基准数据集的图像进行了广泛的平均意见评分(MOS)测试,确认SRGAN结果在人眼感知上的优越性。

  • 网络结构:
    在这里插入图片描述
    这个结构中不太熟悉的主要是损失函数ParametricReLU,其与LeakRelu的区别如下图,主要是将负数部分的直线斜率设为可训练的参数而不是提前预设的常数。
    在这里插入图片描述
    另外网络的具体设计灵感来源看起来有挺多GAN的论文可看,有时间补充。
    网络生成器更新规则为:
    在这里插入图片描述
    网络

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值