论文阅读:Talking Face Generation by Adversarially Disentangled Audio-Visual Representation

转载请注明本文出处,谢谢。

论文链接:Talking Face Generation by Adversarially Disentangled Audio-Visual Representation 

代码:GitHub

视频:Video

这是一篇AAAI 2019的文章。文章的题目是通过对抗分解语音和视频的表征来生成说话的人脸。

1. Introduction

一个人脸正在说话的这样一段视频。如果说这个视频是没有声音的,只有视频帧。那么这样一个没有声音的视频可以被分解为两部分,一部分是人物身份信息,还有一部分是语音信息。这里的语音信息指的主要是人物嘴部的动作传递给我们的这个人物所说的语音信息,而不是我们通常认为的听得到的语音信息。这是文章的主要贡献之一,就是能够从视频中把人物身份信息和语音信息完全分解开。▼▼▼

把刚才那个图缩小放在这。我们从视频中分解出人物信息和声音信息。然后丢掉分解出来的人物信息,只保留声音信息。当有一个新的人物出现的时候,我们可以把新的人物和之前从视频中提取的语音信息结合,生成新的人物说话的视频。除此之外,还可以直接输入音频,这个音频就是我们通常认为的听得到的语音信息。新的人物和这段语音结合也可以生成这个人说话的视频。▼▼▼

那么也就是说这篇文章做到了既可以输入视频,提取其中的语音信息,然后结合任意人物形象输出新的视频;也可以直接输入音频,结合任意人物形象输出新的视频。这是文章的第二个创新点。如果想要做到这一点,那么这两个不同种类的语音信息必须在相同的特征空间里,具有相同的特征分布。那么这就是文章的第三大贡献,把视频-音频中的语音信息联合表征,让他们处于同一个特征空间。▼▼▼

2. Overview

这是后面的主要内容。首先是大概看一下网络结构。▼▼▼

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值