Maintaining Natural Image Statistics with the Contextual Loss 2018
https://github.com/roimehrez/contextualLoss
http://cgm.technion.ac.il/Computer-Graphics-Multimedia/Software/Contextual/
问题
GAN:他们很难训练,结果仍然经常受到人为因素的影响。
方法
其目标是训练一个前馈CNN,以保持自然的内部统计。
效果
明确地观察图像中特征的分布,训练网络生成具有自然特征分布的图像。GAN训练优于以前的方法,生成的图像在感知上更真实,同时减少所需的训练图像的数量的数量级。
想法
我们能训练CNN生成显示自然统计的图像吗?
做法
比较特征分布
提出一种计算简单且易于处理的类似于KL近似值的,为比较没有空间对齐的图像而设计的contextual loss.
1.应用于GAN
2.非图像数据
如何度量两个分布之间的差异

这需要从特征集X = {xi}和Y = {yj}近似化参数化密度PX, PY。最常用的方法是使用多元核密度估计(MKDE),将概率PX(pk)和PY (

探讨了通过上下文损失(Contextual Loss)改进GAN训练,维持图像自然统计特性的方法。该方法通过比较特征分布,设计了一种计算简单且易于处理的损失函数,用于生成具有自然特征分布的图像。实验表明,这种方法在感知质量和训练效率方面优于传统方法。
最低0.47元/天 解锁文章
873

被折叠的 条评论
为什么被折叠?



