机器人与自主系统的透明度研究
1. 拟人化、透明度与可追溯性
1.1 决策过程透明化研究
过往研究主要聚焦于让参与者了解机器人的决策过程,并未考虑公开机器人内部的感官模型以及触发反应式计划各元素所需跨越的阈值。虽然公开这些信息可能会让用户面临数据过载的问题,但在某些应用场景中,了解机器人对世界的感知方式有助于理解其后续的决策过程。此外,研究更复杂的句子生成算法或许也有价值,该算法能够生成不同的句子,使机器人的发声听起来不那么重复和“机械”。
1.2 外观对机器人认知的影响
对动物形态的Buddy机器人的研究表明,外观的微小变化会显著改变我们对机器人的认知和理解。因此,需要系统地研究机器人行为和外观的设计空间,使机器人系统既能满足其功能目标,又能适应不同用户在教育、治疗和个性化方面的需求。
1.3 行为解释与可追溯性
为机器人行为提供解释不仅在行为发生时重要,对于事后分析也至关重要。这种透明度在事后分析中常被称为可追溯性。若要追究机器人设计者和操作者的责任,追溯机器人的内部状态和决策过程有助于提供构建案例所需的证据。目前的研究虽未深入探讨可追溯性,但在使用ABOD3工具进行视频记录时已有所体现。不过,若无法获得机器人在环境中的全局视角,可追溯性可能需要更详细的传感器数据展示,这是未来潜在的研究方向。
1.4 拟人化研究新方向
现有的拟人化发展模型已过时,未能捕捉到感知者与被感知者之间的交互。与同事Nathalia Gjersoe共同提出了一项新的研究计划,旨在揭示拟人化的关键行为驱动因素,并考察其对不同年龄段儿童的有效性。这将有助于剖析拟人化的机制,使我们在设计机器人
超级会员免费看
订阅专栏 解锁全文
24

被折叠的 条评论
为什么被折叠?



