可编辑的结构感知可变形人脸模型:面部细节编辑的新突破
1. 皱纹线编辑
在皱纹线编辑中,用户可在折线图上进行线条的绘制或擦除操作,随后该折线图会被转换为距离场。原始的位移图和经过编辑的距离场会通过编码器 (E) 和解码器 (G) 进行处理,最终得到与用户编辑操作相符的位移图。这一过程借助训练目标 (L_{struct}) 来实现。在训练时,会从不同的面部样本中分别采样位移图 (x_d^{sty}) 和距离场 (x_s) 来模拟用户的编辑操作,然后将它们进行联合编码以合成最终结果,公式如下:
(\hat{x}_{mix} = G(E(x_d^{sty}, x_s)))
同时,使用距离场损失来促使模型保留输入的距离场 (x_s),其公式为:
(L_{struct} = E_{x,x_{sty}}[\lambda_{df} \ell_{df}(\hat{x}_{mix}, x)])
由于真实的编辑后位移图是未知的,所以这里不能像之前那样使用特征匹配损失 (\ell_{FM})。不过,通过一个对抗目标可以监督生成的位移图更加逼真。
2. 表情和年龄编辑
作为一种深度生成模型,细节模型能够在其潜在空间中对所建模的数据进行语义理解,从而实现表情和年龄的语义编辑。为了与面部动画流程相兼容并且便于用户直观控制,我们采用混合形状权重和年龄值作为控制参数。混合形状权重在表情动画中被广泛使用,每个维度对应着一个预定义基本表情的激活强度,这种定义方式既与大规模网格动画兼容,又便于手动调整。
当用户对脸部细节的表情或年龄进行编辑时,具体步骤如下:
1. 用户指定目标混合形状权重或年龄。
2. 细节模型根
超级会员免费看
订阅专栏 解锁全文
13

被折叠的 条评论
为什么被折叠?



