安全人机交互中机器人行为设计策略解析
1. 多智能体系统信息结构
在多智能体系统里,每个智能体都要考虑其他智能体的情况。在选择控制策略 (u_i) 时,智能体 (i) 需考虑其他智能体可能采用的“策略”,也就是其他智能体可能选择的控制信号 (u_j)。信息结构明确了在智能体决定控制策略时,哪些信息可供哪些智能体使用。
- 同时博弈 :当所有智能体基于相同信息集独立行动,在采取下一步行动前没有交互,这种情况属于同时博弈,该系统的最优解定义为纳什均衡(若智能体的效用信息不公开,则为贝叶斯纳什均衡)。
- 序贯博弈 :当部分智能体在决定自身控制策略前,通过观察 (x_j) 了解到其他智能体的 (u_j),这就是序贯博弈,其最优解定义为斯塔克尔伯格均衡(若智能体的效用信息不公开,则为完美贝叶斯均衡)。被观察的智能体为领导者,进行观察的智能体为追随者。
对于安全导向的人机交互,可将其建模为序贯博弈,且被控制的机器人始终作为追随者,原因如下:
- 这是一种保守策略,从安全角度来看是有利的。
- 通常认为机器人的反应时间比人类短,能够快速适应人类的动作,符合追随者的特点。
- 机器人要分析人类的控制策略,需要知道人类的成本函数,但这很难获取。所以假设在机器人行动前,人类的所有策略都已通过其过去的行动展现出来,那么机器人只能作为追随者,采取被动反应策略。
2. 安全导向的行为设计
机器人的行为由机器人控制器 (g_i)((i \in R))决定。设计 (g_i) 的目标有两个:一是找出机器人行动的安全边界,确保其相对于人类的行为和反应是安全的;二是
超级会员免费看
订阅专栏 解锁全文
1068

被折叠的 条评论
为什么被折叠?



