【AdaIN】自适应实例规范化图像风格迁移

AdaIN层通过匹配内容特征的均值和方差与风格特征的统计量,实现实时任意风格的图像迁移。与批归一化和实例归一化相比,AdaIN无需学习仿射参数,而是自适应地从风格输入中计算。模型采用编码器-解码器结构,预训练的VGG-19作为编码器,通过AdaIN进行风格转换,解码器则将转换后的特征映射还原为图像。在训练过程中,利用VGG19的特征损失进行优化,确保内容保真和风格迁移的准确性。实验结果显示,AdaIN能够实现灵活的用户控制和高效的风格转换。

1. AdaIN简介

使用GAN进行图像风格迁移,网络通常与固定的风格集相关联,无法适应任意新的风格。AdaIN首次实现了任意风格的实时传输。其方法的核心是一个新的自适应实例归一化(AdaIN)层,它将内容特征的均值和方差与样式特征的均值与方差对齐。与现有最快方法相当的速度,不受预定义样式集的限制。此外,允许灵活的用户控制,如内容风格权衡、风格插值、颜色和空间控制,所有这些都使用单个前馈神经网络。

2. 相关工作与背景

2.1 批归一化 Batch Normalization

Batch Normalization层最初设计用于加速区分网络的训练,但也被发现在生成图像建模中有效。

给定Batch输入 x ∈ R N × C × H × W x \in \mathbb{R}^{N \times C \times H \times W} xRN×C×H×W, Batch Normalization标准化每个通道的均值和标准差。

  • B N ( x ) = γ ( x − μ ( x ) σ ( x ) ) + β BN(x) = \gamma\left( \frac{x-\mu(x)}{\sigma(x)}\right)+\beta BN(x)=γ(σ(x)xμ(x))+β
  • γ \gamma γ β \beta β是从数据中学习到的仿射参数
  • μ ( x ) , σ ( x ) \mu(x),\sigma(x) μ(x),σ(x)是针对每个特征通道独立计算的批次大小和空间尺寸的平均值和标准差

2.2 实例归一化 Instance Normalization

在原始方法中,风格迁移网络在每个卷积层之后都包含BN层。但是用Instance Normalization层代替BN层可以实现显著改善性能。

  • I N ( x ) = γ ( x − μ ( x ) σ ( x ) ) + β IN(x) = \gamma\left( \frac{x-\mu(x)}{\sigma(x)}\right)+\beta IN(x)=γ(σ(x)xμ(x))+β
  • 不同于BN,这里的均值和标准差是对于每个通道和每个样本,跨空间维度独立重新计算得到的。
  • μ n c ( x ) = 1 H W ∑ h = 1 H ∑ w = 1 W x n c h w \mu_{nc}(x)=\frac{1}{HW}\sum_{h=1}^{H}\sum_{w=1}^{W}x_{nchw} μnc(x)=HW1
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ace2NoU

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值