在沉浸性的虚拟世界中,为了在有限的性能条件下创造出环绕型的环境,画面往往是根据使用者注视(gaze)的位置实时渲染而生成的。相比手机、电脑等以2D平面为基础的设备,虚拟现实的沉浸型更高,对用户视觉注意追踪的准确性和及时性也就更高。
甚至部分虚拟现实应用主要利用注视、而不是手柄遥控来完成用户交互。下图展示的就是注视用户交互的原理图。

(来源:Research Gate )
然而,大多数相关的研究过去集中于在自由状态下、无明显限制或要求(free-viewing condition)的眼球跟踪研究。这种研究在实用性上比较局限,无法很好的完成某些任务伴随下的虚拟场景中的预测。而现实情况中,大多数虚拟场景都会有不同程度的用户交互。
在2021年,北京大学与University of Stuttgart合作的PhD团队在IEEE发表了关于任务条件(task-oriented)下虚拟环境中的视觉注意预测,并为文章中的学习模型取名“FixationNet“。以往的 VR 眼神跟踪也仅限于显示当前和历史视觉注意位置。而FixationNet的研发团队在现有方法的基础上开发了一种基于学习的视觉注意预测模型。
首先,作者设计了一个在静态和

最低0.47元/天 解锁文章
875

被折叠的 条评论
为什么被折叠?



