超写实虚拟人制作教程

文章详细介绍了如何利用UE5、Metahuman、苹果手机的深度传感器和LiveLinkFaceApp创建虚拟人直播的过程,包括人脸数据采集、三维模型重建、虚拟人捏脸和面部驱动等步骤。
部署运行你感兴趣的模型镜像

最近突然吹起一阵虚拟人直播风潮,大概就是找一个虚拟人物,用主播的面部动作来驱动虚拟人来完成头部和表情动作,但我看大部分都是下载的UE5Unreal Eigine 5(Epic公司出品的一款强大的3D创作平台,很多大型3A大作都是用其开发的),比如我们熟悉的绝地求生、黑神话:悟空等。

我最近研究了下,这里面主要的模块主要包括:
1、UE5里的Metahuman提供了丰富的虚拟人库,可以下载作一个独立的蓝图(Blueprint)在UE5的场景中使用
在这里插入图片描述
2、苹果手机前置深度传感器,可以实时捕捉人脸的三维数据,这需要Iphone X以上的型号才支持。【You’ll need to have a model of iPhone that has both a depth camera and ARKit. These capabilities are typically included in iPhone X and later.】
3、Epic公司开发的IOS APP: Live Link Face通过Lidar传感器实时捕捉人脸三维数据并识别关键部位,主要包括整体头部、眼睛和嘴巴。
在这里插入图片描述
但是,以上三个模块,只能完成非写实的虚拟人驱动,如果说要完成写实虚拟人驱动,则我们还需要加两个模块:
4、通过手机视频/拍照的方式采集人脸的数据,再使用摄影测量软件进行人脸的三维重建
5、使用UE5的Metahuman插件进行写实虚拟人制作

最终我们的成品如下:

面部捕捉

小板凳准备好,我下面来说一下详细步骤:

里面有很多细节的操作,有直接可跳转的链接我会尽量贴链接,不然此篇教程会非常庞大(我就是有点懒不想再写一份)

0 准备工作

1、下载安装一款摄影测量软件,如DJI TerraReality CaptureMetashapeContextCapture等,如果你不是英伟达显卡,则你可能只能使用Metashape
2、下载安装三维模型处理软件Meshlab
2、IPhone X以上型号苹果手机一部,并下载APP Live Link Face
3、下载安装Unreal Engine 5
4、电脑一台,显存>=4G、内存>=8G

1 采集人脸数据并重建三维模型

1、保持人脸静止不动,找其他人帮忙或自拍人脸一圈,拍摄的过程中人脸需要静止,否则无法完成建模,比如我自拍的视频:(自拍的有点随意,但是大概表达一个拍法),拍摄视频和图片都可以,图片的拍法是差不多每隔半秒按一次快门,同时尽量在拍摄的时候距离保持一致,不要忽近忽远,容易触发自动对焦,这对建模来说是不利的。

2023-04-22 231932

2、将图片/视频导入摄影测量软件,这里有个问题是大部分摄影测量软件都只支持图片,只有ContextCapture支持视频,我们通过ContextCapture来对视频抽帧,再把抽出来的图片导入其他软件来建模(其实也可以全程使用ContextCapture,但这个软件试用版模型结果有水印很蛋疼),我比较习惯用DJI Terra。(如果你不是英伟达显卡,则你可能只能使用Metashape)
视频抽帧的教程为:ContextCapture视频抽帧
抽帧完成后,在输出目录里找到图片,打开DJI Terra软件,新建可见光重建任务,导入图片,打开三维开关,并在输出格式中将ply格式勾上,注意下面图中红圈位置就是一些关键步骤提示
在这里插入图片描述
在这里插入图片描述

点击开始重建,等待重建完成,完成后如下图:
在这里插入图片描述
打开软件输出目录,找到obj模型文件,目录路径是models/pc/0/terra_obj/Block/Block.obj

在这里插入图片描述
在这里插入图片描述
用Meshlab打开该obj文件,打开软件后,把obj文件直接往软件窗口里拖动,打开后如下:
在这里插入图片描述
我们用Meshlab做一些编辑,只保留模型的人脸部分,其他全部删除掉,完成后如下:(怎么删除我就不在此介绍了,不然过于繁琐,这步是一个比较简单的操作,大家上网搜索自己鼓捣鼓捣就能搞定)
在这里插入图片描述
保存结果到另一个文件夹,在保存选项中把存储纹理图选项勾上
在这里插入图片描述
就此,第一步人脸模型重建完成,接下来是使用UE5的Metahuman插件导入重建的人脸模型进行写实虚拟人制作。

2 Metahuman捏脸

打开UE5软件,新建一个空白项目,
在这里插入图片描述
在编辑菜单中点击插件,搜索Metahuman并安装,安装完重启UE5生效。
在这里插入图片描述
在这里插入图片描述
然后在左下角打开内容侧滑菜单,点击导入,找到obj文件并导入:
在这里插入图片描述
导入后在窗口中可以看到我们的人脸模型:
在这里插入图片描述
接下来点击在内容侧滑窗口右上角的添加按钮,找到Metahuman菜单,点击Metahuman本体。
在这里插入图片描述
这时内容窗口内会出现一个Metahuman本体,可以修改一下它的名字,比如MyFace(不改也可以),
在这里插入图片描述
然后双击打开,这时需要登录Epic账号,可以即时注册一个。
打开后,在新的窗口中,点击网格体中的组件,选择我们重建的人脸三维模型,

在这里插入图片描述
窗口中会出现一个人脸模型,点击它按F可以自动调整到窗口中间来,再调整下模型的位置和缩放,使脸部正面位于窗口中心
在这里插入图片描述
可以调整这里的摄像机摄影使得人脸缩放到合适的尺度,以及关掉光照使得追踪更成功。
在这里插入图片描述

然后选中左侧的Neutral Pose,依次点击 提升帧-追踪活动帧,自动追踪眼睛嘴巴和关键线条,
在这里插入图片描述
完成后可以点击窗口正上方的B,查看配对的虚拟人体,
在这里插入图片描述

然后点击Metahuman本体解算,解算完成后在右侧面板中点击身体,选中一款中意的,
在这里插入图片描述
然后点击网格体转Metahuman,等待完成。
在这里插入图片描述

完成后,打开浏览器,输入网址 https://metahuman.unrealengine.com/,在打开的界面中,点击运行最新版本的Metahuman Creator
在这里插入图片描述
稍作等待后,即可进入Metahuman捏脸页面,可以看到我们刚才制作的人脸模型已经出现在列表中(服务器在国外,网络链接不舒畅的话,画面有时候会比较模糊),可以看到此时模型还只是一个底模,没有皮肤毛发,所以我们选中后,点击编辑已选项进入编辑页面。
在这里插入图片描述
编辑页面里可以添加不同类型的头发、设定皮肤颜色、眼球颜色、睫毛类型等,总之可以按照你的想法DIY你的虚拟人,但样貌会一直保持神似。
详细的编辑方法,我这里不再详细说明了,大家可以查看Metahuman的官方文档:https://docs.metahuman.unrealengine.com/zh-CN/creating-a-metahuman-in-metahuman-creator/
我这个视频可以参考下

Metahuman虚拟人体验

3 Metahuman资产导入UE5

用Metahuman制作完虚拟人后,下一步是导入UE5,我们打开UE5软件,还是载入前面的空白项目,点击主菜单中的窗口-Quixel Bridge

在打开的Bridge主窗口右上角点击登录前面注册的Epic账号,
然后在左侧的侧边栏中点击MetaHumans,里面有两类资产,一类是MetaHuman Presets,是MetaHuman官方的虚拟人资产;一类是My MetaHumans,是我们自己捏的虚拟人,也就是我们前面制作的虚拟人会出现这一栏中。
在这里插入图片描述
选中My MetaHumans后,在右侧的资产窗口中,找到我们前面制作的虚拟人并鼠标点击,这里我就选一个我之前做好的,这里会有4步操作1、点击选中要导入UE的虚拟人资产
2、在右下角选项中切换质量类型,推荐Highest Quality
3、下载资产到Bridge
4、导入资产到UE
如下图所示,
在这里插入图片描述
在点击导入后,等待进度条执行完毕,会出现缺失插件的提示,全部选择启用缺失即可,然后会让你重启UE,按照提示重启。

重启后切换到UE主界面,在下方侧滑菜单的内容窗口中新出现了一个MetaHumans的文件夹,里面就有刚才导入的虚拟人资产,名字是你在MetaHumans创作平台中的命名,我这里是自己改成了Yingsong,选中它后右侧内容窗口中有一个BP_Yingsong的蓝图类,这表明你已经导入成功了。
在这里插入图片描述

4 使用Live Link Face面部驱动虚拟人

要用手机驱动电脑上的虚拟人,必须让手机和电脑产生连接,首先让手机电脑连接到同一个局域网(有/无线连接同一个路由器即可),然后手机打开Live Link Face,点击左上角的齿轮样工具,再点击LiveLink,在目标栏点击添加目标,输入电脑的IP地址。

查找电脑IP地址的方法:
在Windows中,执行以下步骤:
1、右键点击 任务栏中的 连接图标。然后,在弹出的菜单中,选择 打开网络和互联网设置。

2、向下滚动到 属性(Properties) 部分(或者点击 属性(Properties) 按钮,取决于操作系统版本)。然后记下或者复制 IPv4地址 数值。
在这里插入图片描述
在macOS中,执行以下步骤:
1、打开 网络偏好。
2、双击 网络 图标。
3、选择你当前连接的 网络。
4、点击 高级 按钮。
5、在打开的窗口中,点击 TC/ICP 选项卡,然后记下或者复制 IPv4地址 数值。

然后回到UE5主界面,在主菜单找到 编辑(Edit) > 插件(Plugins) 并确保为项目启用了以下插件:

  • Live Link Live
  • Link Control Rig
  • Apple ARKit
  • Apple ARKit Face Support

向项目中导入至少一个MetaHuman后,这些插件应该默认自动启用。如果没有则手段启动一下。

然后在窗口菜单中点击虚拟制片-Live Link

在弹出窗口中看到一个Apple AR面部追踪的选项,选中它。

然后我们打开下方的内容侧滑菜单,找到前面导入的虚拟人资产:BP_Yingsong蓝图类,双击它,在弹出的窗口右侧细节栏中找到LiveLink设置栏,按照下图所示进行设置,设置完依次点击左上角的编译和保存,然后退出此窗口。
在这里插入图片描述
回到UE主界面,在内容侧滑窗口中,找到BP_Yingsong蓝图类,用鼠标拖进关卡窗口中,调整模型的位置和视角,使其面朝屏幕前方,能够清晰地看到虚拟人的面部。
然后在你的iOS设备上,打开LiveLink Face app并将前置摄像头对准你的面部。你应该能够看到追踪网格覆盖在你的脸上,并且会根据你的表情和头部移动做出反应。这一步就完成了。

到这里全部步骤就基本结束了,后面的就自己探索啦,包括灯光控制啥的,自己搜搜教程,也比较简单了。最终效果如下视频所示:

面部捕捉

您可能感兴趣的与本文相关的镜像

ACE-Step

ACE-Step

音乐合成
ACE-Step

ACE-Step是由中国团队阶跃星辰(StepFun)与ACE Studio联手打造的开源音乐生成模型。 它拥有3.5B参数量,支持快速高质量生成、强可控性和易于拓展的特点。 最厉害的是,它可以生成多种语言的歌曲,包括但不限于中文、英文、日文等19种语言

<think>我们正在处理一个用户查询:用户想学习如何制作AI数字人,并询问AI数字人制作教程。根据之前的引用,我们有三条相关信息:[^1]主要介绍了一本书,内容涵盖虚拟数字人的技术原理、商业价值、创建工具等,并提到了一些工具如ChatGPT、StableDiffusion、腾讯智影、剪映等。[^2]提供了一个具体的AI卡通口播数字人制作指南,分为生成形象、对口型配音和剪映剪辑三个步骤,使用即梦AI作为主要工具。[^3]介绍了腾讯智影平台,包括其功能(视频剪辑、文本配音、数字人播报等)和在线使用的便利性。用户需求是“学习如何制作AI数字人”,因此我们需要提供一个教程。考虑到引用中提供了两种不同的工具(即梦AI和腾讯智影),我们可以分别介绍这两种方法,或者选择一种详细说明。但用户没有指定具体类型(比如是卡通还是写实,是口播还是其他),所以我们可以提供两种方法的概述,让用户选择。然而,由于引用[2]提供了非常详细的步骤(三步法),而引用[3]则介绍了腾讯智影的综合性功能,我们可以整合这两种方法。但是注意:用户上一次的问题和我们的回答是什么?由于这是对话的开始,我们只能根据当前引用和用户当前问题来回答。因此,我们决定提供两种主流方法:方法一:使用即梦AI+剪映(适合制作卡通口播数字人)方法二:使用腾讯智影(适合制作写实数字人播报视频)另外,引用[1]提到了一些基础知识和工具,我们可以作为补充。回答结构:1.概述AI数字人制作的基本流程和工具选择。2.方法一:即梦AI+剪映(详细步骤,参考引用[2])3.方法二:腾讯智影(详细步骤,参考引用[3])4.补充建议(如使用StableDiffusion生成形象等,参考引用[1])注意:我们不是推销,所以客观介绍工具,并说明优缺点(比如水印问题)。最后,按照要求生成相关问题。开始回答:</think>### AI数字人制作教程 制作AI数字人主要分为三个核心步骤:**形象生成→口型配音→视频合成**,以下是两种主流方法的详细教程: --- #### **方法一:即梦AI+剪映(卡通口播数字人)** [^2] 1. **生成数字人形象** - 访问[即梦官网](https://www.jimengai.com),进入图片生成页面 - 提示词技巧:使用详细描述(如“3D卡通风格,25岁亚洲女性,棕色卷发,职业装,暖光背景”) - 设置参数:选择“生图模式2.0Pro”,比例推荐16:9(横屏)或9:16(竖屏) - 优化生成:不满意时可上传参考图辅助生成,保存为HD清格式 2. **对口型配音** - 在即梦平台选择“视频生成→对口型” - 上传生成的数字人形象 - 配音处理: - 输入文本或上传音频(支持中英文,单段≤36秒) - 选择音色(如“女声-知性”/“男声-沉稳”) - 调整语速和音量后生成视频片段 3. **剪映后期处理** - 导入所有片段到剪映时间轴 - 关键操作: - **去水印**:使用裁剪/模糊覆盖“即梦AI”水印 - **加背景**:用智能抠像分离人物,叠加新场景 - **加元素**:插入字幕、BGM、转场特效 - 导出设置:分辨率≥1080P,帧率30fps > ⚠️ 注意:免费版带水印,会员可直出无水印视频 --- #### **方法二:腾讯智影(写实类数字人)** [^3] 1. **访问平台** - 打开[腾讯智影官网](https://zenvideo.qq.com),无需下载即可使用 2. **创建数字人视频** - 点击“数字人播报”→选择形象(提供多种预设形象) - 输入播报文本(支持5000字长内容) - 调整参数: - 音色库选择(新闻主播/温柔女声等) - 语速调节(80%-120%) - 背景更换(上传自定义图片/视频) 3. **高级功能** - **智能剪辑**:自动分割长视频,添加转场 - **字幕同步**:AI自动生成字幕并匹配时间轴 - **横转竖屏**:一键适配短视频平台比例 - 导出格式:MP4(最高4K) > ✅ 优势:无需处理水印,支持长文本直接生成 --- #### **进阶技巧** [^1][^2] 1. **形象优化** - 用Stable Diffusion生成高精度写实形象 - 提示词公式:`[风格]+[特征]+[场景]+[光影]`(例:“写实,亚洲面孔,实验室环境,赛博朋克灯光”) 2. **多工具组合** ```mermaid graph LR A[ChatGPT写脚本] --> B[即梦生成形象] B --> C[腾讯智影配音] C --> D[剪映合成特效] ``` 3. **商业应用场景** - 电商直播:AI带货主播(24小时不间断) - 教育培训:虚拟讲师讲解课程 - 新闻播报:自动生成当日新闻视频 --- #### **常见问题解决方案** | 问题类型 | 解决方法 | |---------|----------| | 口型不同步 | 在剪映中手动调整音频偏移±0.3秒 | | 背景生硬 | 使用即梦生成匹配场景图(如“咖啡店柔光”) | | 肢体僵硬 | 选择腾讯智影的“全身动态”数字人模型 | > 工具选择建议: > - 追求效率选**腾讯智影**(10分钟出片) > - 追求个性化选**即梦+剪映**(自定义程度高)
评论 5
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值