Do Not Mask What You Do Not Need to Mask: a Parser-Free Virtual Try-On
-
摘要
基于图像的虚拟换装,需要将服装图像拟合到人的图像上,这非常具有挑战性,因为它涉及衣服的形变,图像的融合和合成。将虚拟试穿转换为有监督的任务面临困难:可用的数据集是由成对的图片(衣服,穿着衣服的人)组成。因此,当人身上的衣服发生变化时,无法获取相应的真实图像。先进的模型一般通过人体分析和姿势估计屏蔽人身上的衣服。然后,训练图像合成模块以从被掩盖的人物图像和衣服图像重建换装后的人物图像。在这个过程中:首先,人体分析容易出错;第二,处理过程比较耗时;最后,由于衣服掩码遮盖了应保留的受等信息,所以转换后的任务比之前更加艰巨。本文提出了一种新的学生-教师范式,在引导学习专注于最初的任务(换衣服)之前,教师以标准的方式(重建)进行训练。学生从对抗损失中学习,使得它追随真实图像的分布。因此,学生利用了被老师掩盖的信息,受过训练而没有对抗损失的学生将不会使用此信息。而且,在推理是摆脱人体解析和姿势估计的同时,可以获取实时的虚拟试穿。 -
结果


-
网络结构


-
定量结果

-
运行时间


本文介绍了一种无需人体分析的虚拟试穿方法,通过教师-学生对抗学习,学生模型在不依赖于衣服掩码的情况下,模仿真实换装效果。该方法简化了流程,提高实时性,且在推理阶段避免了姿势估计。
&spm=1001.2101.3001.5002&articleId=115320512&d=1&t=3&u=cfbabf20f9704fe39d684509093d6de2)
2137

被折叠的 条评论
为什么被折叠?



