深度运动流引导的可逆人脸视频去标识化技术
1. 深度运动流引导的可逆人脸视频去标识化概述
在人脸视频处理中,为了保护个人身份信息,同时又能在需要时恢复原始身份,提出了深度运动流引导的可逆人脸视频去标识化方法。该方法利用连续人脸视频帧的高度相似性,通过计算相对运动流来减少计算成本并实现加速。
1.1 运动流计算
设输入视频为 (V = (v_1, v_2, \cdots, v_n)),使用运动流生成器计算每两个相邻帧之间的相对运动流 (M(V) = (m_1, m_2, \cdots, m_{n - 1})),其中 (m_i)((i \leq n))表示能将处理后的第 (i) 帧变形到第 (i + 1) 帧的相对运动流。公式如下:
[M = (m_1, m_2, \cdots, m_{n - 1})]
1.2 仿射变换模块
在线分享视频中人脸的位置和姿态差异较大,直接对第一帧应用保护或恢复模块可能无效。因此,设计了仿射变换模块来标准化和恢复第一帧的分布。具体步骤如下:
1. 计算保护和恢复模块训练数据集中所有人脸的几个关键点,取平均值作为标准模式 (P_{STD})。
2. 在第一帧输入保护或恢复模块之前,计算其关键点 (P_{v1}) 或 (P_{v‘1})。
3. 通过最小化两组点之间的畸变,将这些关键点与标准关键点模式 (P_{STD}) 进行仿射变换匹配,得到仿射变换矩阵 (T) 和 (T’):
[T = P_{v1} \varOmega P_{STD}, T’ = P_{v‘1} \varOmega P_{STD}]
4. 还需要逆仿射变换矩阵 (T^{-1}) 和
超级会员免费看
订阅专栏 解锁全文
60

被折叠的 条评论
为什么被折叠?



