OPenNI来源于由业界领导的一个非盈利组织,专注于提高和改善自然交互设备与应用软件的互操作能力。
OPenNI是一个多语言,跨平台的框架,它定义了一套用于编写通用自然交互应用API。OPenNI的主要目的是形成标准API,便于下面两个接口之间进行通信:
a.视觉和音频传感器(用于感知周围环境信息)。
b.视觉和音频感知中间件(用来对应用场景中所记录的音频和视觉数据进行分析与理解,例如能够接收一份可见的图像数据并返回从中检测到的手掌位置信息)
OPenNI的这套标准化API使得自然交互应用开发人员可以利用由传感器输入并计算过的数据类型,很方便地跟踪处理现实生活中的场景(例如:可以是表示人体全身的数据,也可以是表示手的位置数据,或者仅仅是深度图里面的一组像素等)。 这样可以保证编写应用程序的时候,不用考虑传感器或中间件供应商相关的细节。
OPenNI目前已成为PCL集成进来的第一个设备相关的第三方库。