IJCAL 2023 | 基于美学策略引导的低光照图像增强方法

本文介绍了一种基于美学的低光图像增强方法ALL-E,通过将低光图像增强视为马尔可夫决策过程,结合A3C算法和美学评估,提升图像质量并保留细节。实验结果表明,这种方法在主观视觉和客观评价上表现优秀。

论文标题:ALL-E: Aesthetics-guided Low-light Image Enhancement
论文链接:https://arxiv.org/abs/2304.14610
项目链接:https://dongl-group.github.io/projectpages/ALLE.html

引言

由于光学器件固有的局限性和外部成像条件的限制,低光图像是一类常见的低质量图像。下图中我们列出了两种低光图像,分别是在光照不均匀的环境下和逆光下拍摄的。 我们可以观察到,这样的低光图像会给用户带来不好的视觉体验,并且由于缺乏细节而难以获取内容信息,这将进一步影响下游的视觉任务,例如语义分割、对象检测等等。

低光图像增强任务的首要目标是处理此类低质量图像中的低亮度、低对比度、噪声和伪影等问题,并使用传统方法或基于学习的方法来提高视觉质量并恢复更多的图像细节。 因此,人类主观视觉是衡量相关技术的重要指标,但现有方法忽略了图像增强任务的主观性。 此外,我们观察到图像美学质量评价与人类主观评价在一定程度上是一致的,因此我们尝试在训练中引入美学评价来代表人类主观视觉感知,以帮助提高低光图像增强任务的性能。

方法

由于人类对图像的修饰过程是一个动态且明确的渐进过程,与图像的当前状态因果密切相关,因此我们将 LLE 视为马尔可夫决策过程,将其分解为一系列迭代。

我们提出的 ALL-E美学策略生成模块美学评估模块两部分组成。其中,美学策略生成模块采用 A3C 算法流程架构,生成由像素曲线调整的映射参数,即动作 AtA^tAt,然后由基于美学预测网络和一系列损失函数组成的美学评估模块生成奖励 RtR^tRt。具体来说,在第 t 步,给定图像 sts^tst 作为输入,美学策略生成模块通过选择的 AtA^tAt 生成增强图像 st+1s^{t+1}st+1,然后将其送到美学评估模块生成即时奖励 rtr^trt,然后逐步完成图像增强,直到 n 步。

美学策略生成模块

美学策略生成模块由两个子网络组成:价值网络和策略网络,分别表示为 θv\theta_vθvθp\theta_pθp。两个网络都使用当前状态图像 sts^tst 作为第 t 步的输入。 价值网络输出值 V(st)V(s^t)V(st) 代表从状态 sts^tstsns^nsn 的期望总折扣奖励,表明当前状态有多好。RtR^tRt 则是从状态 sts^tstsns^nsn 的总折扣奖励。

V(st)=E[Rt∣st]V(s^{t}) = \mathbb{E}\left[ R^{t}\mid s^{t}\right]V(st)=E[Rtst]

策略网络输出属于动作空间的采取动作的概率,我们将其表示为 π(At∣st)\pi(A^t|s^t)π(Atst)。 为了衡量在状态 sts^tst 下选择特定动作 RtR^tRt 的合理性,我们利用优势函数 G(At,st)G(A^t,s^t)G(At,st) 给出动作 AtA^tAt 的表现与所有可能动作的表现平均值之间的差异。如果这个差值大于 0,则表明动作 AtA^tAt 优于平均值,是一个合理的选择;如果差值小于 0,则意味着动作 AtA^tAt 低于平均值,不应该被选择。

G(At,st)=Rt−V(st)G(A^{t}, s^{t}) = R^{t} - V(s^{t})G(At,st)=RtV(st)

美学评估模块

美学评估模块使用美学预测网络和一系列损失函数来构建步骤 t 的即时奖励 rtr^trtrtr^trt 由三个互补的奖励组成,包括美学质量奖励(Aesthetics Quality Reward)、特征保留奖励(Feature Preservation Reward)和曝光控制奖励(Exposure Control Reward),以保留更好的主观视觉体验和客观评价。

图像的美学质量得分与多种因素密切相关。 在这项工作中,我们专注于通过图像的美感评分来动态调整和提高亮度。 因此,利用审美分数作为直接奖励函数是不合理的,我们改用原始图像和增强图像之间的审美分数差异作当前所选动作的奖励。 图像美学质量奖励表述如下:

raest=∑k=1Kk(Pk(st+1)−Pk(st))r^t_{aes} = \sum_{k=1}^{K} k(P_{k}(s^{t+1}) - P_{k}(s^{t}) )raest=k=1Kk(Pk(st+1)Pk(st))

K 表示图像美学分数的评分范围,P 表示每个评级的概率。

颜色自然度也是低光图像增强中的一个关键问题,为了防止防止增强图像中潜在的颜色偏差,并避免相邻图像之间的剧烈和急剧变化,我们引入了一种包含照明平滑度惩罚项的颜色恒常性项作为特征保留奖励:

rfeat=∑∀(p,q)∈ξ(Jp−Jq)2+λ1n∑t=1n∑p∈ξ(∣▽x(At)p∣+∣▽y(At)p∣)r^t_{fea} =\sum_{\forall (p,q)\in \xi }(J^p-J^q)^2 + \lambda \frac{1}{n}\sum_{t=1}^{n}\sum_{p\in \xi }(\left |{\triangledown _x{(A^{t})}^{p}} \right|+\left |{\triangledown _y{(A^{t})}^{p}} \right|)rfeat=(p,q)ξ(JpJq)2+λn1t=1npξ(x(At)p+y(At)p)

曝光控制奖励主要用于测量局部区域的平均强度值与 RGB 颜色空间中预定义的良好曝光水平的偏差。
rexpt=1B∑b=1B∣Yb−E∣r^t_{exp} = \frac{1}{B} \sum_{b=1}^{B} |Y_{b}-E|rexpt=B1b=1BYbE

总奖励表示为:

rt=w1raest−w2rfeat−w3rexptr^{t} = w_1 r^t_{aes} - w_2 r^t_{fea} - w_3 r^t_{exp}rt=w1raestw2rfeatw3rexpt

实验

定性比较

我们从结果中观察到,通过我们的方法增强的图像美学观感最佳,而且没有明显可辨别的噪声和伪影:

定量比较

我们使用 NIQE 和 UNIQUE 作为非参考评估指标,采用峰值信噪比(PSNR,dB)和结构相似度(SSIM)作为全参考图像质量评估指标,定量地比较各种方法的性能 ,而且我们进行了人类主观调查(User study)进行比较。

消融实验

为了证明我们的技术提出的美学质量奖励和动作空间配置的有效性,我们进行了几次消融实验。

美学质量奖励 raestr^t_{aes}raest 的缺失使图像阴暗且没有吸引力,而不正确的动作空间设置导致增强图像的某些部分过度曝光,加入美学质量奖励并修改动作空间后获得最佳结果。

结论

我们提出了一种有效的美学引导强化学习方法来解决 LLE 问题。 与大多数现有的基于学习的方法不同,我们的方法将 LLE 视为马尔可夫决策过程来实现渐进式学习。以审美评估分数作为奖励,引入了一般人类主观偏好,有助于产生美观的效果。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

CVHub

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值