【CD】Collaborative Diffusion for Multi-Modal Face Generation and Editing

Collaborative Diffusion for Multi-Modal Face Generation and Editing

会议/期刊:CVPR 2023
作者:
在这里插入图片描述
Project page: https://ziqihuangg.github.io/projects/collaborative-diffusion.html
Code: https://github.com/ziqihuangg/Collaborative-Diffusion

背景

现有的扩散模型主要集中在单峰控制上,即扩散过程仅由一种条件模态驱动。

为了进一步释放用户的创造力,希望模型能够同时由多种模态控制,例如通过描述年龄(文本驱动)和绘制面部形状(面具驱动)来生成和编辑面部。

points

多模态 协同扩散
其中预训练的单峰扩散模型协作实现多模态人脸生成和编辑,而无需重新训练。

由不同模态驱动的扩散模型在潜在的去噪步骤方面具有内在的互补性,在这些步骤中可以建立双边连接。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值