✨✨ 欢迎大家来访Srlua的博文(づ ̄3 ̄)づ╭❤~✨✨🌟🌟 欢迎各位亲爱的读者,感谢你们抽出宝贵的时间来阅读我的文章。
我是Srlua小谢,在这里我会分享我的知识和经验。🎥
希望在这里,我们能一起探索IT世界的奥妙,提升我们的技能。🔮
记得先点赞👍后阅读哦~ 👏👏
📘📚 所属专栏:传知代码论文复现
欢迎访问我的主页:Srlua小谢 获取更多信息和资源。✨✨🌙🌙
目录
本文所有资源均可在该地址处获取。
概述
本文复现论文Noise2Noise: Learning Image Restoration without Clean Data中提出的图像去噪方法,并使用最广泛应用的高斯噪声与泊松噪声来做实验。原文连接https://arxiv.org/abs/1803.04189
该论文证明了,对于同一张干净图片,如果分两次污染它所用的噪声同分布且0均值的情况下,那么用这一对噪声图像进行网络训练即noise2noise的训练方法就能达到与用干净-噪声图像对即noise2clean的训练方法接近的去噪效果。
该方法在无监督与自监督方法中效果几乎达到了最好,相比ZS-Noise2Noise这样的方法效果要优秀非常多,与有监督方法的效果相近!
论文在多种噪声和测试数据集上进行了实验,本文只选取高斯噪声与泊松噪声并在官方测试数据集中选取了一个进行测试。
算法原理
对于干净的图片分布,我们用xcleanxclean表示。在现实的生产生活中,干净的图片经常会被噪声所污染,变为xnoisexnoise,污染的过程我们可以使用如下过程表示:
xnoise=xclean+noisexnoise=xclean+noise
其中noisenoise最常见的分布便是高斯分布与泊松分布。
在深度学习中,图像的去噪任务就是尽可能学习到一个模型使得:
xclean=fθ(xnoise)xclean=fθ(xnoise)
其中ff为模型,θθ为训练过程中学习到的模型参数。当然在现实中是不可能的,我们只能使我们的模型尽可能去逼近理想效果,即:
xclean≈fθ(xnoise)xclean≈fθ(xnoise)
为了达到以上效果,有监督学习采取的方法是是最小化训练数据与标签的损失函数来学习模型参数即:
argminθE(xnoise,xclean){L(fθ(xnoise),xclean)}θargminE(xnoise,xclean){L(fθ(xnoise),xclean)}
其中LL代表我们选取的损失函数,在图像训练中通常为L2L2损失或L1L1损失。
具体到某个数据集上,有监督学习的过程实际上就是如下过程:
argminθ∑iL(fθ(xnoisei),xcleani)θargmini∑L(fθ(xnoisei),xcleani)
其中i代表数据集中的样本标号。
当然,有监督学习的效果毋庸置疑,但是在现实生活中(xnoiseixnoisei,xcleanixcleani)这样的图像对获取并不容易,这也成为了制约有监督学习的一大因素。
本文算法的亮点就是不用传统有监督学习算法中使用的(xnoiseixnoisei,xcleanixcleani)图像对,而是改用(xnoise1ixnoise1i,xnoise2ixnoise2i)这样的图像对进行训练却能达到有监督方法的效果,该方法将有监督学习训练模型的过程改为了:
argminθ∑iL(fθ(xnoise1i),xnoise2i)θargmini∑L(fθ(xnoise1i),xnoise2i)
其中noise1noise1与noise2noise2代表独立同分布且都是0均值的噪声。xnoise1xnoise1代表用noise1noise1污染xcleanxclean后的图片,xnoise2xnoise2代表用noise2noise2污染xcleanxclean后的图片,在本文算法中noise1noise1于noise2noise2可选择高斯分布与泊松分布两种方案。
尽管对于noise1noise1与noise2noise2噪声分布的限制略显苛刻,但本文算法无疑为解决有监督学习的去噪任务中标签数据的难以获取问题提供了一种突破性的思路。
在模拟数据的实验结果上证明Noise2Noise的训练方法性能非常接近有监督的训练方法。
演示效果

核心逻辑
#获得噪声对
def get_noisePair(image, noi



最低0.47元/天 解锁文章
1万+

被折叠的 条评论
为什么被折叠?



