苹果公司近几年推出的最具创新性的发明之一是True Depth camera。作为开发者,深度相机为我们打开了一个充满可能性的世界,特别是在人脸交互领域。

在我们开始这个ARKit教程之前,简单介绍一下相机的不同部分。与大多数iPhone/iPad前置摄像头一样,True Depth camera配有麦克风、700万像素摄像头、环境光传感器、近距离传感器和扬声器。True Depth camera本身是增加了一个点投影仪,泛光照明,和红外相机。

点投射器在你的脸上投射出超过30,000个不可见的点来构建一个本地地图(你将在本教程的后面看到这一点)。红外摄像机读取圆点图案,捕获红外图像,然后将数据发送到A12/A13仿生芯片,以确认匹配。最后,漫射照明装置允许不可见的红外线识别你的脸,即使是在天黑的时候。这些功能可以让我们一起创造了一些神奇的体验,如Animojis和Memojis,当然还有炫酷的AR效果。
以下内容由公众号:AIRX社区(国内领先的AI、AR、VR技术学习与交流平台) 整理
效果预览

Step 1:新建项目
打开Xcode,选择AR模版创建,Content Technology选择SceneKit

本文介绍了如何使用ARKit和Swift通过True Depth相机创建AR面部追踪应用,详细讲解了从新建项目到实现Face Mesh、表情特征的步骤,包括设置ARFaceTrackingConfiguration、更新Face Mesh和利用blendShapes检测面部表情。
最低0.47元/天 解锁文章
1016

被折叠的 条评论
为什么被折叠?



