自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(93)
  • 收藏
  • 关注

原创 Unity XR 教程专栏引导

Unity XR 开发教程专栏分类

2023-08-20 16:21:20 3488

原创 基于 Quest 摄像头数据开发的原理介绍【Unity Meta Quest MR 开发教程】

比如想在识别到的现实物体上叠加虚拟物体,需要知道这个现实物体在 Unity 的世界坐标下的哪个位置,是带有 x,y,z 三个轴的数据的。而 WebCamTexture 捕捉到的图像只是个 2D 的平面,没有三维世界的深度信息,我们通过物体识别算法识别到的物体坐标只是在这个 2D 平面上的一个屏幕坐标,可以理解为 Quest 拍摄了一张照片,我们识别到这张照片上的某个像素点为需要识别的现实物体的中心。是不是看起来比较复杂?Quest 的相机访问功能是在安卓的。

2025-03-18 15:48:37 972

原创 【2025】Unity Pico VR/XR 开发教程:SDK 环境配置 & 抓取、移动、UI 交互 & 程序打包【适配 XR Interaction Toolkit 3.x】

Pico Unity OpenXR SDK:和 Pico Unity Integration SDK 类似,也是提供了 Pico 开发的底层插件,但它是基于 OpenXR 的,可以在 Unity OpenXR 的设置里添加 Pico 特性的支持,更适合于跨平台的开发,只需在 OpenXR 的设置里勾选不同硬件设备的特性,就能够把相同的程序发布到不同的设备上。,XR Interaction Toolkit(简称 XRI) 在 3.0 之前和之后的版本里,开发方式发生了比较大的变化。

2025-02-23 12:36:52 2436 1

原创 【2025 Unity Meta Quest MR 开发教程】透视 Passthrough 模块配置(戴上头显看见现实画面)

找到玩家物体身上的 CenterEyeAnchor 物体,确保相机的 Background Type 设为 Solid Color,背景色为黑色,透明度为 0。当 Placement 设置成 Underlay 的时候,相当于透视的现实图层置于应用图层的最底端,这时候。,这个时候现实场景会把整个虚拟场景覆盖掉,我们只能看到现实场景,看不到虚拟物体。因为我们想要在透视下的现实场景中看到虚拟物体,所以我们要选择 Underlay。可以理解为现实场景充当背景,虚拟物体叠加在现实场景上。然后需要检查一些环境配置。

2025-02-11 15:52:27 845

原创 Unity Apple Vision Pro 开发教程:物体识别跟踪

注:需要 PolySpatial 2.1.2 及以上的版本,在目前的版本当中只能打包到头显中运行才能看到物体识别跟踪的效果。

2024-12-21 14:33:56 555

原创 Apple Vision Pro 开发教程:通过 TestFlight 把开发的程序安装到其他的设备上测试

在我之前出的 Apple Vision Pro 开发系列教程中,如果要把程序发布到真机上运行,我们是通过 Xcode 的 WiFi 无线传输将程序导入设备当中。那么本教程就提供了另一种在开发测试的阶段能够快速分发,把程序安装到其他用户的设备的方法:使用 TestFlight。具体步骤可参考视频教程。

2024-12-21 14:11:31 489

原创 Unity XR Interaction Toolkit 开发教程:抓取交互【3.0以上版本】

因为配置抓取的步骤本身是比较简单的,但重点在于相关的脚本上有非常多的参数,通过调整这些参数,我们可以实现个性化的抓取效果。作为 VR/MR 开发的初学者,最大的难点就是不理解这些参数有什么作用,怎么调整才能实现符合自己需求的效果,而官方文档中的某些描述也比较抽象。那么我会在完整的课程当中对这一部分进行详细的介绍,并且汇总了大家在开发过程中常见的需求和问题,把解决方法也加入了完整课时当中。注:抓取交互的教程内容为本套系列教程的付费内容,可以进入文章开头的网站链接,观看完整课程。

2024-11-30 19:28:58 1670

原创 Unity XR Interaction Toolkit 开发教程:手柄追踪【3.0以上版本】

需要引用 Input System 输入配置文件中定义的对应动作。然后这个脚本就能够追踪现实中手柄的位置和旋转,把追踪到的数据映射到虚拟世界中的 Left/RightHand Controller 物体上,与现实中的手柄产生同步。在这两个物体身上分别添加 Tracked Pose Driver (Input System) 脚本,然后进行参数赋值。现在就可以追踪手柄,并且在场景中渲染出手柄模型了。

2024-11-29 01:07:51 831

原创 Unity XR Interaction Toolkit 开发教程:输入系统与代码读取输入【3.0以上版本】

具体步骤讲解可参考视频教程~

2024-11-27 22:28:47 679

原创 Unity XR Interaction Toolkit 开发教程(4)XR Origin:追踪参考系与相机高度【3.0 以上版本】

2)能够决定进入到程序后的追踪参考系(追踪原点),视觉上的效果是能决定虚拟世界中相机的高度,主要是通过 XROrigin 脚本上的 TrackingOriginMode 参数决定的。XROrigin 作为玩家物体,能够获取到硬件设备提供的追踪数据,作用于虚拟世界中的玩家物体,实现虚拟与现实的同步,比如现实中头显的位置和旋转能够同步虚拟世界中用户的视野,现实中手柄的运动同步虚拟世界中手部的运动。1)能够决定用户进入到程序后的初始位置和朝向。

2024-11-03 16:29:51 1381

原创 Unity XR Interaction Toolkit 开发教程(3)快速配置交互:移动、抓取、UI交互【3.0以上版本】

导入了 XR Interaction Toolkit 的 Starter Assets 样例包后,可以把 Starter Assets 中的 XR Origin(XR Rig) 玩家物体添加到场景当中。比如 Teleportation Area 直接创建出可以行走并且传送的地面(添加后需要把地面物体上的 TeleportationArea 脚本中的 Interaction Layer Mask 参数设为 Teleport)。Grab Interactable 可以创建出能被抓取的物体。

2024-11-01 11:40:29 1685

原创 Unity XR Interaction Toolkit 开发教程(2):导入 SDK【3.0 以上版本】

在 Unity Hub 中安装一个 Unity 编辑器(推荐 LTS 长期支持的稳定版),并且安装硬件设备对应平台的打包模块(目前市面上大部分 XR 头显都是安卓系统,如 Quest、Pico,需要安装 Android Build Support,只有苹果的头显是 visionOS 系统,需要安装 visionOS Build Support)本教程中使用的 Unity 版本是 2022.3.20f1,因为考虑到大部分人用的可能还是相对旧一点的版本。

2024-10-31 14:30:43 2332 1

原创 Unity XR Interaction Toolkit 开发教程(1):OpenXR 与 XRI 概述【3.0 以上版本】

如今,越来越多的 XR 设备开始支持 OpenXR 标准,这意味着选用 OpenXR 进行 XR 设备的开发可以成为一种通用的方案。开发者通常只要在 Unity 的 XR Plug-in Management 中选择对应的 XR 插件供应商,然后进行设置,Unity 会自动处理程序与硬件的兼容,使得开发的应用能够成功接入设备的 XR 能力,在设备上正常运行。不同的底层插件对接对应的 XR 硬件平台,让 Unity 程序兼容到对应的硬件设备上,适配硬件的特性和用户的输入。

2024-10-30 00:41:59 2800 1

原创 Unity Meta Quest 开发调试工具 Immersive Debugger

此工具可以在头显当中对 Unity 脚本的参数进行调整(相当于在编辑器 Inspector 里调整脚本参数),并且还可以查看 Unity Console 控制台的输出信息。这样能够在程序打包到头显中运行后仍然可以对程序进行调试。

2024-10-20 12:03:51 572

原创 Unity Apple Vision Pro 开发:Metal 渲染模式开启透视遇到背景黑屏的解决方法

Unity 开发 Apple Vision Pro 使用Metal 渲染模式开启透视遇到背景黑屏的解决方法

2024-10-15 14:48:42 907 1

原创 Unity Apple Vision Pro 开发(十):通过图像识别锚定空间

课程内容大纲:- 通过图像识别,在图片上生成虚拟物体- 通过识别到的图片坐标,校准虚拟空间,让虚拟空间与现实空间1:1贴合- 靠近现实中的一个区域触发事件- 室内导航辅助线效果- 事件管理中心代码框架

2024-09-12 12:18:01 865

原创 Unity Apple Vision Pro 开发(九):空间锚点

空间锚点可以把虚拟物体固定在现实中的一个特定区域,锚定后即使退出程序重新打开,之前锚定过的物体仍然能够出现在之前锚定的位置。课程内容大纲:• 空间锚点的创建与删除• 重新打开程序加载之前保存的锚点• 不同位置的锚点生成不同的物体• 持久化保存锚点信息• UI 旋转同步头部相机旋转• 复杂 UI 交互事件的开发

2024-09-12 11:56:09 1021

原创 Unity Apple Vision Pro 开发(八):模型分离与组装

课程内容:• XRI 交互组件适配到 visionOS• 使用 DOTween 插件实现模型的分离与组装效果• 组合状态下,模型整体能进行交互;分离状态下,每一个零件能进行交互• Full Space 独占空间中获取头部相机数据• 物体同步跟随与旋转• 将 UI 按钮点击事件与自定义脚本进行绑定• UI 交互功能的激活与失活

2024-09-10 16:11:08 654

原创 Unity Apple Vision Pro 开发(七):UI 交互 + 虚拟键盘

课程内容:- 使用 Unity 内置的 UGUI 搭建 UI 面板- 在远距离和近距离与 UI 进行交互- UI 按钮点击事件的使用- 调用 Vision Pro 的系统键盘

2024-09-10 15:55:17 757

原创 Unity Apple Vision Pro 开发(六):MR 物体交互

课程内容:• 眼动 + 手追交互• Poke 手指点触• 近距离抓取物体• 双手缩放物体• 物体高亮效果• 物体阴影效果• 交互事件

2024-09-10 15:42:57 813

原创 Unity Apple Vision Pro 开发(五):PolySpatial 2.0 导入方式

Apple Vision Pro 的 Unity 开发工具 PolySpatial 更新到了 2.0 以上的版本,在发布这篇文章的时候还处于预览版(Beta 测试版),导入方式与之前的版本相比会有些变化,并且 2.0 新增,改变了一些功能。本期教程将介绍如何导入 PolySpatial 2.0 以及新版 SDK 中的一些变化。

2024-09-10 15:28:07 625

原创 Unity Apple Vision Pro 开发:如何把 PolySpatial 和 Play To Device 的版本从 1.2.3 升级为 1.3.1

本教程将介绍如何把 Unity 的 PolySpatial 和 Play To Device 版本从 1.2.3 升级为 1.3.1。

2024-07-28 17:30:28 659

原创 Unity Apple Vision Pro 开发(四):体积相机 Volume Camera

这期教程我将介绍使用 PolySpatial 开发包中的体积相机(Volume Camera)。体积相机是开发 Apple Vision Pro MR 应用的必备组件,可用于区分 Shared Space 共享空间和 Full Space 独占空间。

2024-07-17 22:14:02 1884

原创 Unity Meta Quest 开发:如何在每只手指上添加 Poke 交互

如何在每只手指上添加 Poke 交互

2024-07-16 17:30:04 566

原创 Unity Meta Quest 开发:关闭 MR 应用的安全边界

这期教程我将介绍如何在应用中关闭 Quest 系统的安全边界。

2024-06-23 11:47:30 992 2

原创 Unity Apple Vision Pro 开发(三):visionOS 应用形态

这期教程我将介绍使用 visionOS 的应用形态,以及 Unity 是如何适配 visionOS 的。掌握了相关的知识点后,我们就能明白能在苹果头显中开发什么类型的应用,每一种类型在开发的时候有哪些限制,能够利用上什么特性。

2024-06-22 23:37:01 1804

原创 Unity Meta Quest 开发:与 Unity 的 UI 系统进行交互

这期教程我将介绍使用 Unity Meta XR SDK 与 Unity 中的 UI(UGUI)进行交互。

2024-06-16 00:10:10 2607 8

原创 Unity Apple Vision Pro 开发(二):Unity 环境配置、导入 PolySpatial 案例、PlayToDevice 实时预览、程序打包

这期教程我将介绍使用 Unity 开发 Apple Vision Pro 应用所需要的 Unity 环境配置,以及如何导入 PolySpatial 样例场景、配置 Play To Device 实时预览功能、将 Unity 程序打包到头显中运行。

2024-06-11 21:45:23 3959 8

原创 Unity Apple Vision Pro 开发(一):开发前期准备【软硬件要求 | 开发者模式 | 无线调试打包】

这期教程我将介绍使用 Unity 开发 Apple Vision Pro 应用的前期准备,包括开发的软硬件要求、开启开发者模式和 Wi-Fi 无线调试功能、真机打包调试。通过本期教程的学习,可以为之后 Unity 开发 Apple Vision Pro 程序做好准备。

2024-05-28 15:34:12 6958 6

原创 【重制版】Unity Meta Quest 一体机开发:前期准备,Meta XR SDK导入和环境配置,配置玩家物体

这期教程我将介绍使用 Unity 开发 Meta Quest 应用的前期准备,Meta XR SDK 导入 Unity 和环境配置,以及如何配置玩家物体。

2024-05-22 20:37:40 4808 8

原创 Unity Meta Quest MR 开发(七):使用 Stencil Test 模板测试制作可以在虚拟与现实之间穿梭的 MR 传送门

这期教程我将介绍如何使用 Stencil Test 模板测试,来制作可以在虚拟与现实之间穿梭的 MR 传送门。在上一期制作虚拟门窗的教程中,我们介绍了一种 Depth Only Shader,它能够让物体不显示颜色,但是能够参与到深度测试中。而这期教程,我们会介绍另外一种 Shader,也是能实现在现实中透视出一块虚拟区域的效果。这种 Shader 叫做 Stencil Shader,它与 Stencil Test,也就是模板测试有关。

2024-04-25 16:20:30 1717

原创 Unity Meta Quest MR 开发(六):将现实的门窗替换成虚拟的门窗,实现虚拟场景与现实空间的融合【局部透视 | MR 门窗效果】

这期教程我将介绍如何实现 MR 门窗效果。我会教大家如何把现实的门窗替换成虚拟的门窗,实现虚拟场景与现实空间的融合,也就是局部透视的效果,那么我们就可以透过虚拟的门窗看到位于现实房间之外的虚拟世界。

2024-04-09 00:15:23 2116

原创 Unity Meta Quest MR 开发(五):空间锚点

这期教程我将会介绍 Unity 的 Meta XR SDK 中的空间锚点的作用以及使用方式。空间锚点可以把虚拟物体锚定在虚拟世界或者现实世界中的某个位置,即使重新戴上头显或者重新打开应用,锚定过的物体仍然能够出现在前一次锚定的位置。

2024-04-04 20:03:34 2188

原创 Unity Meta XR SDK 快捷配置开发工具【Building Block/Quick Action/OVRCameraRigInteraction】

这期教程我将会介绍 Unity Meta XR SDK 中提供的快捷配置开发工具分别是 Building Block,Quick Action 和 OVRCameraRigInteraction。使用快捷开发工具能够快速地配置出 SDK 中的一些功能,省下了手动配置的时间,能够大大地加快开发速度,降低开发难度。

2024-02-22 22:43:29 2575

原创 Unity Meta Quest MR 开发(四):使用 Scene API 和 Depth API 实现深度识别和环境遮挡

这期教程我将会介绍如何在 Unity 中,分别利用 Meta XR SDK 中的 Scene API 和 Depth API,来实现现实物体遮挡位于后方的虚拟物体的效果。

2024-02-11 22:40:42 3037 1

原创 Unity Meta Quest MR 开发(三):Scene API 配置+实现虚拟与现实之间的碰撞

这期教程我将会介绍如何在 Unity 中,利用 Meta XR SDK 中的 Scene API,去使用 Meta Quest 中的空间设置和场景理解功能。最后我们会实现一个弹球 Demo,当虚拟小球碰撞到现实物体上会有反弹效果。

2024-02-03 00:19:38 3947 2

原创 【新】Unity Meta Quest MR 开发(二):场景理解 Scene API 知识点

这期教程我将会介绍如何在 Meta Quest 的场景理解功能,Meta 使用的是 Scene API,来对现实环境进行识别和重建,最终实现虚拟物体和现实物体之间的交互。

2024-01-23 13:54:03 1645 1

原创 【新】Unity Meta Quest MR 开发(一):Passthrough 透视配置

这期教程我将会介绍如何在 Unity 中,利用 Meta XR SDK,去配置 Meta Quest 中的 Passthrough 透视功能。通过 Quest 的视频透视(VST)技术,我们能够戴上头显看到一个虚拟与现实互相融合的世界。因此开启透视是开发 Quest MR 功能最基本的步骤。通过这期教程的配置,我们能够戴上头显看到现实环境,并且能够看到现实环境中的虚拟物体。

2024-01-15 22:58:39 3767 11

原创 Unity Meta Quest 一体机开发(十三):【手势追踪】自定义交互事件 EventWrapper

这篇教程将会介绍如何用 Meta XR SDK,自定义交互事件触发时执行的逻辑。最后会实现一个功能:用手指点击 UI 按钮后,在前方召唤一把剑。

2024-01-11 21:45:44 2514 1

原创 Unity 新版 Meta XR SDK 无法导入解决方法

Unity 新版 Meta XR SDK 无法导入解决方法

2023-12-31 21:45:57 5397 6

Oculus Hands VR手部模型Unity资源包 (含有动画)

Oculus Hands VR手部模型Unity资源包 (含有动画)

2022-10-09

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除