这篇文章是ECCV2016的一篇文章,主要是提出了一种全新的Loss用于图像风格转换和图像超分辨。

整体框架如上图所示,分为两个网络,图像转换网络和损失网络,其中图像转换网络是深度残差网络,将图片转换为^ y = fW (x) 。我们训练图像转换网络来最小化损失网络的输出值加权和。损失网络部分部分是16层的VGG网络,它的特定层拿出来作为损失函数。
我们将这个损失函数与这两个函数作对比实验。在图像风格转换上的实验表明我们的方法比基本方法 快3倍,而在图像超分辨上的实验表明我们的方法性能要更好。

图像风格转换主要有图片迭代和模型迭代两种方式,据我所知这应该是属于模型迭代的(?)
本文介绍了一种ECCV2016提出的图像风格转换和超分辨技术。该方法使用深度残差网络进行图像转换,并通过特定层的16层VGG网络作为损失函数来优化图像质量。实验表明,该方法在速度和效果上均有显著提升。
1178

被折叠的 条评论
为什么被折叠?



